Факторное моделирование с помощью нейронной сети

В статье рассматривается факторное моделирование с помощью метода факторизации на базе нейронной сети и алгоритма обратного распространения ошибки. Этот метод факторизации является альтернативой классическому факторному анализу. Данный метод был усовершенствован для проведения факторного вращения и получения интерпретируемого решения. Факторная структура, полученная с помощью данного метода факторизации, находятся в соответствии с результатами факторного моделирования посредством других методов.

Введение. Классический факторный анализ [1] позволяет на базе выборки различных показателей сформировать факторные показатели с необходимой точностью описывающие исходный объект и уменьшающие размерность задачи путем перехода к ним. Факторные показатели являются линейной комбинацией исходных показателей. Тем самым факторные модели носят линейный характер.


Нейронная сеть позволяет аппроксимировать отображения между исходными и целевыми показателями. При этом аппроксимируемые отображения могут иметь нелинейный характер. Двухслойный персептрон позволяет аппроксимировать любую булеву функцию булевых переменных [2]. Двухуровневая нейронная сеть способна аппроксимировать в равномерной метрике с любой заданной погрешностью ε> 0 любую непрерывную функцию 0f1a7e8fcfc24dc282b5348e17d3655d.gif, а в среднеквадратической метрике — любую измеримую функцию, определенную на ограниченном множестве [3, 4, 5, 6].


Для восстановлений закономерностей между параметрами используется специальный алгоритм обучения нейронной сети: алгоритм обратного распространения ошибки [7]. Этот алгоритм с математической точки зрения представляет собой градиентный метод оптимизации.


Суть данного метода для построений факторных моделей заключается в том, что для выявления закономерностей между параметрами используется математическая модель нейронной сети с линейной передаточной функцией. Значения факторных переменных определяется равным значениям выходных сигналов нейронов скрытого слоя нейронной сети. Тем самым нейронная сеть осуществляет классический факторный анализ, т.е. строит линейные комбинации исходных параметров [8, 9, 10].


В данной работе предлагается усовершенствованный алгоритм обратного распространения ошибки посредством введения дополнительного слагаемого в функцию ошибки для построения интерпретируемой факторной структуры и решения задачи факторного вращения на базе нейронной сети.


Математическая модель нейрона.Состояние нейрона описывается набором переменных:


весами входных сигналов 631cd949f7a74efba0225ba24f9e81bc.gif, где m— количество входных сигналов 9a7d1f94f551450792a40a1cc1d6f46f.gif;


свободным членом 2525e55724de4fc8905027920b1fde63.gifв вычислении выходного сигнала. Сигнал на выходе нейрона вычисляется по формуле:


434b84eddcff4b0dadddff778741cf63.gif, где f4c91f13453745529c01002cc7346cab.gif— взвешенная сумма сигналов на входах нейрона,


σ — передаточная функция нейрона, например сигмоидальная функция 6dfa3f6e75ee4f3fb949ddea77a20a93.gif.


Нейронная сеть. Отдельные нейроны объединяются в слои. Выходные сигналы нейронов из одного слоя поступают на вход нейронам следующего слоя, модель так называемого многослойного персептрона (рис. 1). В программной реализации авторской нейронной сети вводится понятие нейронов потомков и нейронов предков. Все нейроны, имеющие входной сигнал от данного нейрона являются его потомками или пассивными нейронами или аксонами. Все нейроны образующие входные сигналы данного нейрона являются его предками или активными нейронами или дендритами.

b239fb0970d34016baa95d0dd7f02683.gif

Рис. 1.Схема простой нейронной сети (входные нейроны, скрытые нейроны, выходной нейрон).


Алгоритм обратного распространения ошибки. Алгоритм обратного распространения ошибки для обучения нейронной сети соответствует минимизации функции ошибки E(wij). В качестве такой функции ошибки может быть использована сумма квадратов отклонений выходных сигналов сети от требуемых:


08e69e0a806548fba06daaced634b8e1.gif,


где 232fdb9f633449e8a4a03baea191b3a0.gif− выходное значение i-го нейрона выходного слоя,


01d3f664af3c45768e4f0e87b06ba5c3.gifтребуемое значение i-го нейрона выходного слоя.


В данном алгоритме итерация обучения состоит из трех процедур:


  1. Распространение сигнала и вычисление сигналов на выходе каждого нейрона.


  2. Вычисление ошибки для каждого нейрона.


  3. Изменение весов связей.



Путем многократного цикличного подставления наборов сигналов на входе и выходе и обратного распространения ошибки производится обучение нейронной сети. Для многослойного персептрона и определенного вида передаточной функции нейрона, при определенном виде функции ошибки доказана сходимость этого метода [11].


Вычисление ошибок. Если передаточная функция нейронов является сигмоидальной, то ошибки для нейронов различных слоев вычисляются по следующим формулам.


Вычисления ошибок для нейронов выходного слоя производится по формуле:


6eb223733fba4d8f89c29e560637c8f2.gif,


где 75199ce56ec34bf9bd66295bf3f2f905.gif— желаемое значение на выходе j-го нейрона выходного слоя L,


7971f1f5601b408ca2489fa015b7970e.gifсигнал на выходе j-го нейрона выходного слоя L,


L— глубина нейронной сети,


Ошибки для нейронов остальных слоев рассчитываются по формуле:


2ec73f4065a34eb8a09e91f52df78bbe.gif,


где i— индексы нейронов-потомков данного нейрона,


4988b5673f15423b859ae43940f7f850.gifсигнал на выходе j-го нейрона слоя l,


59364e628a9d404cb537ef7619b56e54.gifсвязь междуj-ым нейроном l-го слоя и i-ым нейроном (l+1)-го слоя.


Изменение пороговых уровней нейронов и весов связей. Для изменения весов связей используется следующая формула:


14f88e6d0a454ff29cdf0e710b67a97b.gif


5804d6f213e244bfbe2c32221c4515b1.gif,


9a870ab75a624be7a4649152d23baa67.gif,


61a84decd2f94462a9a4f64c473a5310.gif,


где i— индекс активного нейрона (нейрона источника входных сигналов пассивных нейронов),


j— индекс пассивного нейрона,


nномер итерации обучения,


α— коэффициент инерциальности для сглаживания резких скачков при перемещении по поверхности целевой функции,


0<η<1— множитель, задающий скорость «движения».


Метод построения факторной модели. Факторный анализ основывается на следующей линейной модели, связывающей исходные показателиbe9ff042735843bca256ddab3a59f3ce.gifи факторы 2c05a9e78e714987ae79f57b90235efc.gif:


3c60bc977e024c95b026151fd07c3eab.gif


m— число переменных,


g— число факторов,


be9ff042735843bca256ddab3a59f3ce.gifисходные переменные,


2c05a9e78e714987ae79f57b90235efc.gifобщие факторы,


43a38bc01f7e4d9f8691233f09a3776e.gifспецифичные факторы.


В матричном виде линейная модель факторного анализа записывается в виде:


75b1e65dd008471899cae16986e9c907.gif,


где 26da2f34aa224960a6e08f0fac2a92b2.gif− матрица размерности 6796c332dbde44ff9be637dc45df122b.gifзначений mпараметров у nобъектов,


d5677744491445c1ad31cfa271458b3b.gifматрица размерности cf523144fedf4b98b76daa5f694cbf21.gifзначений g факторов у nобъектов,


fae5c6697ab34e8ab9959e28f135db07.gifматрица размерности 12a73808f8054c34831ec8529dc199b3.gifзначений mспецифичных факторов у nобъектов,


b3f8b7849e74449caee9ed2d80855aeb.gifматрица факторного отображения размерности 70594bcab9604ec9881c24ed618cdfa7.gifвесовых коэффициентов,


bd4962ca55904660ad24b01897e9814e.gifдиагональная матрица размерности27945b7634f84699bf38fa1fe5d7a72b.gifвесовых коэффициентов специфичных факторов.


В данном методе построения факторной модели латентные характеристики ставятся в соответствие нейронам скрытого слоя. При этом число нейронов скрытого слоя полагают меньшим числа нейронов входного слоя для осуществления факторного сжатия входной информации. Для оценки числа нейронов скрытого слоя можно применять правило Кайзера классического факторного анализа. Нейронам входного и выходного слоя ставится в соответствие исходные характеристики объектов исследования. Когда передаточная функция нейронов линейна такая конфигурация нейронной сети соответствует классическому факторному анализу (рис. 2).

00773350c2b0421db8f7d04ab30c23ee.gif

Рис. 2.Схема нейронной сети классического факторного анализа (число нейронов входного слоя равно числу нейронов выходного слоя, число нейронов скрытого слоя меньше числа нейронов входного слоя).

С помощью обучения нейронной сети вычисляются веса входных связей нейронов скрытого и выходного слоя, которые соответствуют элементам обратного и прямого факторного отображения860ac74f4dbf4bf4b8dbcf1f12caaa58.gif. Веса нейронов ищутся в интервале [-1, 1]. Наполнение факторов исходными переменными определяется с помощью значений элементов факторного отображения и выбранного порогового уровня значимостиc229ce8dc4c94fafa97ac17a7e136336.gif. Переменная iвходит в фактор j, если 41c9e2c1c75946228f65ff7d5e5d28e9.gif.

Для раскрытия взаимосвязи факторной модели и нейронной сети, воспользуемся формулами получения выходного сигнала нейронов скрытого слоя.


Обозначим выходной сигнал j-го нейрона скрытого слоя 4e447945042e401ea54bfbc4dac8c3fc.gif. Выходной сигнал i-го нейрона входного слоя обозначим 03828419beb641b6baa59105c03a8a7e.gif. В качестве передаточной функции будем использовать линейную функцию 31b8e27ef8fc446f8d6e52d0e3a911ca.gif.


В результате


12435934679f447ebcb5aed00e4595c7.gif,


где m— число нейронов входного слоя;


673b03ee2c1742f8b2b8659f2363ceb9.gifсвязь между i-ым нейроном s-го слоя и j-ым нейроном t-го слоя,


876e39baecdc4bf8aa89f532f51b3de6.gifпороговый уровень i-го нейрона s-го слоя.


Аналогично для выходного слоя:


b3012df72dae4e1ba60a3ba4caa132b7.gif,


где7823693931b34e74bcca71dc7ee5faa2.gif− выходное значение i-го нейрона выходного слоя,


g − число нейронов скрытого слоя.


Полученная линейная взаимосвязь переменных соответствует классической модели факторного анализа, в которой факторы являются линейными комбинациями исходных переменных. Задача поиска факторного отображения и значений факторов сводится к задаче поиска весов связей и пороговых уровней нейронной сети. Поскольку факторное отображение и значения факторов являются неизвестными, необходима сеть с промежуточным слоем. Сеть в целом осуществляет тождественное преобразование, т.е. выходной сигнал наi-ом нейроне входного слоя равен выходному сигналу i-го нейрона выходного слоя. Отдельные части сети (входная и выходная часть) соответствуют прямому и обратному факторному отображению.


Теорема.


Пусть953832f0e84a450f802c75a035e5184a.gifи c68ee7fcbbaa480283138125b9954d28.gif− веса входных сигналов выходного и скрытого слоя нейронной сети с линейной передаточной функцией. Число нейронов на выходном слое равно числу нейронов входного слоя. Нейронная сеть состоит из входного, скрытого и выходного слоя и осуществляет тождественное преобразование для любого входного сигнала (вектор входных сигналов сети равен вектору выходных сигналов).


Тогда выполняется следующее равенство:


d3c25d4933cf42daa1813d2299286ebe.gif,


гдеd0c83a412be24891a6055b567f3ac4cf.gifсвязь междуi-ым нейрономs-го слоя иj-ым нейрономt-го слоя,

g − число нейронов скрытого слоя.


Доказательство:


Обозначим 6278b81ab2d34575be0cc056b62310e8.gif— выходной сигнал i-го нейрона k-го слоя,


7ec7dd0484d440189ef1b79586e52dbe.gifi-ый выходной сигнал нейронов первого слоя.


Для поиска весов нейронной сети необходимо выполнение условия:


240d59ceeba74f8a9e0abe86bb3c6d06.gif, выходной сигнал на i-ом нейроне входного слоя равен выходному сигналу i-го нейрона выходного слоя. Из этого условия следует вспомогательное условие:


416fadca608b407a84bc03136ee332a2.gif, изменение i-го входного сигнала сети равно изменениюi-го выходного сигнала. При этом справедливы следующие равенства:


ac394a2c61a7436aaa78eac3a7b0c509.gif,


c917d5c5ecb74521ad0d9ac2fdf8abaf.gif, где 7d60b3eee79a4beebfbc0dbc7b6ebdef.gifи a018a90f5602436f9e42a7a740cfb97c.gif— входной и выходной сигнал до изменения,


ee6a1acead21475d8014a603276378f5.gif.


Допустим, что производилось изменение только i-го входного сигнала.


Из этих условий следует:


373d69a8201b4dedabf40444a2804078.gif


9d2b83a966594bbfadf33e51b74b738c.gif


9493a1e4a7ab42b7b63dea39ba0ab941.gif58f094f6706b4e4c9841a3407747572b.gif


8a8d461b75fe410599e2b465142455f6.gif;


Поскольку 416fadca608b407a84bc03136ee332a2.gif, то c903a33cd516463f94fe7c045cade895.gifдолжно выполняться для всех i, поскольку выбор i-го входного сигнала был произволен.

Теорема доказана ■.


Веса 953832f0e84a450f802c75a035e5184a.gifи c68ee7fcbbaa480283138125b9954d28.gifвходных сигналов выходного и скрытого слоя нейронной сети с линейной передаточной функцией соответствуют коэффициентам прямого и обратного факторного отображения. Чем точнее нейронная сеть с факторным сжатием информации осуществляет тождественное преобразование, тем точнее будет выполняться равенство теоремы, соответствующее тому, что композиция прямого и обратного факторного преобразования должно давать тождественное преобразование. Докажем соответствующую теорему.

Теорема.


Пусть953832f0e84a450f802c75a035e5184a.gifи c68ee7fcbbaa480283138125b9954d28.gif− веса входных сигналов выходного и скрытого слоя нейронной сети с линейной передаточной функцией. Число нейронов на выходном слое равно числу нейронов входного слоя. Нейронная сеть состоит из входного, скрытого и выходного слоя.


2f60af76da6b49f8b0239927d62c036c.gifсредняя невязка сигнала между входом и выходом сети, приходящаяся на один входной (выходной) нейрон,


df2d0d67148940a9bb1a61239ed0f04a.gifневязка равенства d3c25d4933cf42daa1813d2299286ebe.gif, т.е.b337c65b2bd84a6d90be8ba2f92df2ba.gif,


гдеd0c83a412be24891a6055b567f3ac4cf.gifсвязь междуi-ым нейрономs-го слоя иj-ым нейрономt-го слоя,

g − число нейронов скрытого слоя.


Тогда чем меньше 2f60af76da6b49f8b0239927d62c036c.gif, тем меньшеdf2d0d67148940a9bb1a61239ed0f04a.gif.


Доказательство:


В предыдущей теореме доказано следующее равенствозначения сигнала по одной переменной на выходеb09087a81c3d4079a5db5e2c0b4d9908.gifот приращения сигнала по той же переменной на входе 879a1e251ca34e7dabbb57d41165a078.gif:


74afab5422ad4183a5dbd0e10ee30520.gif.


Поскольку aef6ccb0f33a46dd97d446c1ed738eb1.gif,


где e1773c8c253c461c93ed17a3f5960d6f.gif— начальная невязка сигналов между входом и выходом сети до изменения i-го входного сигнала,


то fc0681cb4e5742d9a1e03d7f9ceeb4d6.gif. Это означает монотонную зависимость между df2d0d67148940a9bb1a61239ed0f04a.gifи 2f60af76da6b49f8b0239927d62c036c.gif.


Теорема доказана ■.


Для построения нелинейных главных компонент в качестве передаточной функции может быть выбрана антисимметричная сигмоидальная функция:


56f04b9dd8394a4199c6ced94dc88d3e.gif.


В любом случае независимо от вида передаточной функции для получения интерпретируемого факторного отображения вводится дополнительное слагаемое в общую целевую функцию квадратов невязок, соответствующее критерию «варимакс» классического факторного анализа — это максимизация дисперсии нагрузок переменной, приходящихся на все факторы:


3a9de63eb6334e5690eaaad828b674cc.gif,


aa04e84204e04831a4757e397129fd56.gif.


Учет «варимакс» критерия приводит к появлению дополнительных слагаемых при изменении весов нейронной сети на выходном слое:


6c19bb0c75f14e4c85a149dcba4c3d09.gif.


Другим вариантом получения интерпретируемого факторного отображения может быть использование специального критерия интерпретируемости [12]. Данный критерий заключается в том, что только одна факторная нагрузка для фиксированной переменной, должна быть близкой к 1, тогда как остальные должны быть близкими к 0. Учет эмпирического критерия интерпретируемости, предлагается осуществить следующим образом: среди факторных нагрузок для фиксированной переменной выбирается максимальная по модулю. Все факторные нагрузки отличные от максимальной уменьшаются по модулю на γ, тогда как максимальная увеличивается на γ.


Аналогичный учет главных условий факторного анализа на сумму квадратов факторных нагрузок переменной, приходящихся на все факторы, 14bfe7abdf1e49c88fd257ae8b1d960d.gifи поиск факторных нагрузок в допустимом интервале 35996341ecf546b78c24a4327ff4a4df.gifприводит к поправкам на изменение весов нейронной сети для выходного слоя. В случае нарушения этих условий предлагается использовать штрафную функцию 39ae37333af24e088186ebc1feb9b7b1.gif, соответствующую минимизации весов нейронов. Тогда 601f95043f624519ae37e97051a8b840.gif.


Для стандартизации входных значений нейронной сети используется линейное преобразование:


7e7d3ea47e6a474cbee4ad602d5063c6.gif, переводящее диапазон исходных величинxиз [min, max] в [s, t].


Тогда 5ebeaee2cc0c4d38a5603b0c159cf1c4.gif, 53e0dccc7df74844af6f41eed838bd60.gif.


Для обратного преобразования выходных значений нейронной сети из диапазона [s, t] в [min, max] используется преобразование 83b791c5fd8e4ff09f6590d2557fd492.gif.


В качестве интервала [s, t] для антисимметричной сигмоидальной функции 56f04b9dd8394a4199c6ced94dc88d3e.gifможет быть выбран интервал [-0.85, 0.85].


Тогда ae661a1baf944354a52355ea48f460c3.gif, 679d0828700b40459cdc9a040b9ed5f2.gif.


Численный эксперимент. В качестве исходных параметров были взяты 15 биофизических показателей для 131 лица с артериальной гипертензией начальной стадии:


  1. вес,


  2. индекс массы тела (ИМТ),


  3. частота дыхания (ЧД),


  4. сегментоядерные нейтрофилы ©,


  5. лимфоциты (Л),


  6. конечно-систолический размер левого желудочка (КСР),


  7. конечно-систолический объем левого желудочка (КСО),


  8. конечно-диастолический размер левого желудочка (КДР),


  9. конечно-диастолический объем левого желудочка (КДО),


  10. ударный объем (УО),


  11. минутный объем сердца (МОС),


  12. общее периферическое сосудистое сопротивление (ОПСС),


  13. индекс Хильдебрандта (ИХ),


  14. фракция выброса левого желудочка (ФВ),


  15. фракция укорочения левого желудочка (ФУ).



При обучении нейронной сети на данных артериальной гипертензии начальной стадии содержащих 131 паттерн и 15 переменных с антисимметричной сигмоидальной передаточной функцией и 5-ю нейронами на скрытом слое ошибка, приходящаяся на одну переменную, составляла не более 10% от диапазона значений переменной по выборке. График сходимости процесса обучения представлен на рисунке 3. Под итерацией обучения понимается одна эпоха обучения, когда сети подставляется весь набор паттернов обучения. Под суммарной ошибкой на обучающей выборке понимается сумма ошибок для всех паттернов обучающего множества на одной итерации обучения.


Для проверки эффективности обучения нейронной сети исходное множество входных-выходных значений было разделено на 2 независимых подмножества: обучающее и тестовое. Обучение проводилось на обучающем множестве, а верификация — на тестовом. Ошибка нейронной сети на тестовом множестве является показателем того, насколько точно обучилась нейронная сеть. Относительный объем тестового множества был оценен по формуле [7]:


452750c659d4428fb9ee8c99e33f720b.gif,


где Wколичество входных параметров.


При W= 15, d54eed7e714749e6a8dc0c3b11bddbc6.gif. При 131 паттерне на тестовое множество приходится 20 паттернов.


График изменения суммарной ошибки для паттернов тестового множества при верификации на каждой эпохе процесса обучение представлен на рисунке 4. Под суммарной ошибкой на тестовом множестве понимается сумма ошибок для 20 паттернов тестового множества при процессе верификации на каждой эпохе обучения, т.е. когда для обучения был использован полный набор паттернов обучающего множества, но тестовое множество не участвовало в обучении. На каждой эпохе относительная ошибка для тестового множества больше относительной ошибки для обучающего множества. В пределе, когда ошибка для обучающего множества начинает сходится, возможен эффект переобучения, т.е. значение ошибки при верификации на тестовом множестве начинает не уменьшатся, а расти это связано с тем, что промежуточные точки между точками обучающего множества в многомерном пространстве плохо аппроксимируются восстанавливаемой зависимостью нейронной сети. Рисунок 4 и его график изменения ошибки на тестовом множестве показывает, что эффекта переобучения нет и объем обучающего множества достаточен для количества исходных показателей равным 15. На графики заметны лишь незначительные флуктуации ошибки при дальнейшем обучении на обучающем множестве в процессе сходимости ошибки для обучающего множества.

Из графика видно, что эффекта переобучения не наблюдается, дальнейшее обучение приводит лишь к небольшой флуктуации суммарной ошибки на тестовом множестве.


4e550c16832d43979d760b6dae2594a9.gif


Рис. 3.График изменения суммарной ошибки на обучающей выборке (131 паттерн, 15 переменных).

6dd8eb6aca0a4b04837c1b0aebf1dc81.gif


Рис. 4.График изменения суммарной ошибки на тестовом множестве (20 паттернов, 15 переменных).

7bd706ddc68743e4939e4fea9c1f2ab3.gif


Рис. 5.Собственные значения исходных переменных.

Средние ошибки, приходящиеся на 15 переменных для одного паттерна на обучающем и тестовом множестве равны 1.28 и 1.54. При исходном диапазоне изменения параметров [-0.85, 0.85] ошибка, приходящаяся на одну переменную, для обучающего и тестового множества равны 5 и 6%. Например, для параметра »вес» наибольший вес был равен 116 кг, наименьший 45 кг, при диапазоне в 71 кг, ошибка в 6% соответствует 4.26 кг. Это свидетельствует о хорошей способности нейронной сети к обобщению. Поскольку ошибка в 6% для 15 входных параметров и 131 примера для обучения меньше теоретической оценки ошибки в 10%, когда требуется 15×10 примеров для обучения, то можно говорить о достаточности обучающего множества. Известно, что между действительно достаточным размером множества обучения и теоретическими оценками может существовать большой разрыв [7].


Число нейронов на скрытом слое выбиралось согласно правилу Кайзера факторного анализа, когда число факторов выбирается не больше чем количество собственных значений корреляционной матрицы переменных больших 1. График собственных значений исходных переменных приведен на рисунке 5. В ходе численного эксперимента с данными артериальной гипертензии было установлено, что хорошая обучаемость нейронной сети достигается при числе нейронов в скрытом слое не меньшем верхней границы числа собственных значений исходных переменных по правилу Кайзера. При меньшем числе нейронов в скрытом слое наблюдались значительные ошибки на обучающей выборке и наоборот, чем больше нейронов выбиралось на скрытом слое, тем меньше была ошибка на тестовом и обучающем множестве. Это связано с факторным сжатием и потерей информации на скрытом слое.


Факторное отображение, полученное с помощью нейронной сети, незначительно отличается от факторного отображения, получаемого методом главных компонент с последующим «варимакс» вращением и имеет тот же интерпретационный характер, все значимые факторные нагрузки двух матриц факторных отображений близки друг к другу. Соответствующие факторные структуры приведены в таблице 1, 2, 3.


С точки зрения совпадения факторных структур ошибка прогноза входного паттерна менее 10% оказалась не критичной и нейронная сеть является достаточно обученной для проведения факторного анализа. Данные факторные структуры подтверждаются предыдущими работами [11].


Таблица 1. Факторная структура «варимакс»


(метод главных компонент + «варимакс» вращение)


52e6516222154e1599597755c16f6300.png

Таблица 2. Факторная структура на базе нейронной сети («варимакс» критерий)


e2da9565075a43018f8801ba0f3a2c96.png

Таблица 3. Факторная структура на базе нейронной сети (критерий интерпретируемости)


a0671556ddc84bf18e3de9454148250b.png

Специальный критерий интерпретируемости оказался более эффективным, чем «варимакс» критерий. Разделение исходных переменных на факторы более мощное: незначимые факторные нагрузки близки к 0, тогда как значимые близки к 1. Незначимые факторные нагрузки отдают свою долю дисперсии переменных, приходящиеся на факторы, значимым фактоным нагрузкам, тем самым повышая эффективность разбиения исходных параметров на факторы. Конечным этапом факторного моделирования является интерпретация наполнения факторов переменными и более эффективное разбиение исходных переменных на факторы, соответствующее целям классического факторного вращения, является плюсом факторного моделирования на базе нейронной сети со специальным критерием интерпретируемости. Расхождение величин незначимых факторных нагрузок матриц факторного отображения до и после факторного вращения является обычным эффектом, целью которого является повышение эффективности интерпретационного разделения исходных переменных на факторы.


Матрица корреляций факторов немного отличается от ортогональной, что соответствует общему косоугольному случаю (таблица 4).


Таблица 4.Корреляции факторов, полученных на базе нейронной сети


ab0e34c022464d739efaaef694335d2f.png

с использованием критерия интерпретируемости

Факторное моделирование позволяет выделить группы взаимосвязанных параметров, образующих факторы заболевания артериальной гипертензии. Факторы проинтерпретированы в ранних работах[13, 14]:


1. Главный фактор можно интерпретировать как гемодинамический фактор, включающий параметры, описывающие центральную и периферическую гемодинамику. Переменные УО, МОС, ОПСС определяют уровень артериального давления. В норме, изменениям минутного объема циркуляции должна соответствовать адекватная по величине и направлению реакция прекапиллярного русла, которая бы нивелировала эти изменения и сохраняла среднее давление на нормальном уровне. Например, если МО снижен, то артериолы должны сузиться. Если МО увеличен, то артериолы должны расшириться. Нарушения взаимосвязи этих показателей лежат в основе изменений уровня АД. Вместе с тем изменение уровня артериального давления взаимосвязано с модуляцией сердца, за которую отвечают параметры КСР, КСО, КДР, КДО.


2. Фактор составленный из параметров Фракция выброса левого желудочка и Фракция укорочения ЛЖ можно считать важным для непосредственной оценки контрактильной (сократительной, нагнетательной) функции левого желудочка. Этот фактор определяет объемную ресурсоемкость ЛЖ. Он показывает, насколько использованы объемные резервы самого сердца для поддержания уровня артериального давления.


3. Фактор, отвечающий за соответствие массы и роста.


4. Фактор, характеризующий уровень слаженности работы сердца и легких, определяется через частоту дыхания и индекс Хильдебранта.


5. Иммунологический фактор, который может отражать психосоматическое состояние индивида, поскольку этот фактор активируется в стрессовых состояниях. Основной вклад в формирования этого фактора вносят сегментоядерные нейтрофилы и лимфоциты.


Выделенные факторы являются различными аспектами заболевания. Например, это может быть такой фактор риска как ожирение и нарушение фактора 3. Факторы 4 и 5 соответствуют стрессовой восприимчивости, при которой нарушается иммунологический фактор и фактор слаженности работы сердца и легких. Все выделенные факторы подтверждены независимыми медицинскими исследованиями.


В ранней работе [13] даны рекомендации по&

© Habrahabr.ru