4.4 Метод построения универсального аппроксиматора на основе МГУА- моделей
Исследования, проведенные в подразделе 4.2 показали, что при построении решающих модулей по принятию решений целесообразно вводить дополнительные информативные признаки, которые несут информации о скрытых связях между исходными признаками.
Основным требованием к этим связям является то, что они должны отличаться у исследуемых альтернативных классов. Скрытые связи определяются аппроксимирующей функцией, построенной по данным, извлеченным из обучающей выборке (независимым переменным) и данным, полученным посредством схемы рисунок 4.11 (зависимым переменным). Если такая аппроксимирующая функция будет построена, то по данным неизвестного образца может быть найден дополнительный признак как функция этих входных данных.Метод МГУА [48, 49] позволяет получить самые разнообразные аппроксимирующие функции.
Таким образом, необходимо решить задачу, состоящую в обнаружении и моделировании некоторой закономерности
связывающей множество информативных признаков X=(x1x2,...,xn), используемых решающими модулями.
Поиск закономерностей осуществляется согласно обучающей выборке, полученной для двух альтернативных классов, пример которой представлен в виде таблицы 4.1.
Таблица 4.1 - Таблица экспериментальных данных для получения моделей (4.22)
В этой таблице X- вектор экспериментальных данных компоненты вектора X, определяемые посредством экспериментальных исследований и характеризующие каждое значение скаляра
Модель зависимости (4.22), построенная на основе данных таблица 4.1, должна хорошо аппроксимировать ее не только в точках у, но и в любой точке пространства, определяемого координатами xi.
Проблемы, возникающие при восстановлении функциональных зависимостей в условиях коротких выборок, являются типичными проблемами, возникающими при применении индуктивных методов, и существенно отличаются от классических проблем восстановления по выборкам большого объема. Особенность состоит в том, что при ограничении объема выборки качество восстановления зависит не только от качества аппроксимации в точках yj, но еще и от таких факторов, как сложность аппроксимирующей функции и размерности пространства N.
Эта особенность заставляет сосредоточить внимание на правильном соотнесении сложности приближающей функции с объемом обучающей
выборки, так как имеющейся информации может не хватить даже для восстановления функции только в точках yj.Тем более этой информации может не хватить для удовлетворительного восстановления в любой точке ее существования.
Среди немногих методов, в которых особое внимание уделяется поиску такого соотнесения, выделяются метод группового учета аргументов (МГУА) [18, 115].
Рассмотрим процесс синтеза модели оптимальной сложности более подробно. Представим полином, аппроксимирующий функцию (4.22), в общем виде
В качестве такого полинома очень часто используется полином Колмогорова-Габора [6, 18]:
так как с помощью такого полинома можно добиться достаточно точной аппроксимации любой дифференцируемой функции F.
Эта сложная зависимость заменяется множеством простых функций:
гдепричем функция fповсюду одинакова.
Очень часто в качестве функции fвыбираются простые зависимости
или связывающие только две переменные.
Коэффициент этих зависимостей можно определить по МНК, имея соответственно 4 или 6 точек наблюдений в обучающей последовательности. Среди моделей первого ряда выбираются несколько, например S* наилучших, показавших хорошие результаты на проверочной выборке. Среди отобранных моделей остаются только те, которые «впитали» в себя нечто большее, чем хорошая аппроксимация в узлах интерполяции; они «угадывают» поведение функции (4.22) в области, не охваченной экспериментом. Во втором ряду алгоритма полученные на обучающей выборке значения y, соответствующие отобранным моделям, рассматриваются в качестве аргументов нового ряда:
Здесь функция fостаются прежними и соответствуют соотношениям (4.26) или (4.27), но аргументами этих функций выступают переменные yi. Коэффициенты новых моделей (4.28) находятся по МНК на точках той же обучающей последовательности. Новые модели проверяются на точках проверочной последовательности, и среди них выбирается S* наилучших, которые используются в качестве аргументов следующего третьего ряда и т.д. Сложность полиномов возрастает от ряда к ряду. Так, например, во втором ряду будут получены полиномы, содержащие нелинейные члены вида и т.д. Коэффициенты этих полиномов могут быть определены по тем же точкам обучающей последовательности и не требуют дополнительной информации, хотя их сложность все время
возрастает. При этом число определяемых коэффициентов значительно превосходит число точек обучающей последовательности. Если бы не было внешнего дополнения, т.е. проверочной выборки, то алгоритмы МГУА благодаря сложности синтезируемых полиномов могли бы абсолютно точно аппроксимировать функцию (4.22) во всех точках обучающей выборки, но при этом не осталось бы никаких гарантий удовлетворенного поведения восстанавливаемой функции на новых точках.
Схема алгоритма МГУА представлена на рисунке 4.18. В ней есть генераторы усложняющихся из ряда в ряд комбинаций и пороговые самоотборы лучших из них. Так называемое полное описание объекта где f- некоторая элементарная функция. Например, степенной полином заменяется несколькими рядами «частных» описаний:
Входные аргументы и промежуточные переменные сопрягаются попарно, и сложность комбинаций на каждом ряду обработки информации возрастает (как при массовой селекции), пока не будет получена единственная модель оптимальной сложности.
Каждое частное описание является функцией только двух аргументов. Поэтому его коэффициенты легко определить по данным обучающей последовательности при малом числе узлов интерполяции. Исключая промежуточные переменные (если это удается), можно получить аналог полного описания. Математика не запрещает обе эти операции. Например, по
десяти узлам интерполяции можно получить в результате оценки коэффициентов полинома сотой степени и т.д.
Рисунок 4.18 - Схема алгоритма реализации МГУА
Из ряда в ряд селекции пропускается только некоторое количество самых регулярных переменных. Степень регулярности оценивается по величине среднеквадратичной ошибки (средней для всех выбираемых в каждом поколении переменных или для одной самой точной переменной) на отдельной проверочной последовательности данных. Иногда в качестве показателя регулярности используется коэффициент корреляции.
Ряды селекции наращиваются до тех пор, пока регулярность повышается. Как только достигнут минимум ошибки, селекцию, во избежание «инцухта», следует остановить. Практически рекомендуется остановить селекцию даже несколько раньше достижения полного минимума, как только ошибка начинает падать слишком медленно.
Это приводит к более простым и более достоверным уравнениям [18].Среди множества МГУА - моделей выбираем Lнаилучших, которые могут быть представлены в виде множества
На рисунке 4.19 представлена обобщенная структурная схема классифицирующего модуля, предназначенного для работы с дополненным на основе МГУА - моделей пространством информативных признаков.
Рассмотрим метод формирования множества (4.30). Метод должен синтезировать множество аппроксимирующих связей между элементами входного вектора Xи позволить выбрать из этого множества L функциональных связей, которые формируют Lдополнительных признаков, включение которых во входной вектор приводит к повышению качества классификации решающего модуля.
В случае вырождения нелинейных моделей в линейные многомерные аппроксиматоры блок нелинейных моделей (рисунок 4.19) включает множество пар (в случае двухальтернативной классификации) классифицирующих функций (аппроксиматоров), каждый из которых выдает число, соответствующее состоянию входного вектора. При необходимости, эти два числа (а и b,)могут быть агрегированы в одно посредством одного из следующей группы агрегаторов:
?51
Рисунок 4.19 - Обобщенная структурная схема классифицирующего модуля, предназначенного для работы с дополненным на основе МГУА - моделей пространством информативных признаков
Учитывая вышеизложенное, структурная схема классифицирующего модуля с дополнительными информативными признаками имеет структуру,
представленную на рисунке 4.20.
Рисунок 4.20 - Структурная схема классифицирующего модуля с
дополнительными информативными признаками, полученными на основе рекуррентных обратных связей
При этом необходимо учитывать, что соответствующие выходы блоков, моделирующие корреляционные связи исходных информативных признаков, могут быть как двухкомпонентными векторами, так и скалярами, в зависимости от наличия в моделирующих модулях агрегирующих блоков вида (4.21).
Включение в множество моделей очередной, (£+1) -й, модели, осуществляется по рекуррентной схеме, представленной на рисунке 4.20. Эта схема позволяет оценить вклад в показатели качества принятия решений (/ +1) -го дополнительного информативного признака при наличии (^) дополнительных признаков.
В общем случае, для построения модели рисунок 4.20 привлекаются алгоритмы эволюционного типа («жадные» алгоритмы) [128].
Предложен метод формирования нелинейных моделей виртуальных потоков, составляющих основу классифицирующего модуля рисунок 4.20. Модуль моделирования виртуальных потоков состоит из двух слоев. Первый слой формирует множество моделей Y. Для каждого виртуального потока посредством МГУА - моделирования получено свое подмножество моделей {zj⊂Z,Vi = 1,M. Каждое подмножество моделей (zy∣., j = 1..Ki, где Ki - число МГУ - моделей для i-го виртуального потока, полученных на основе МГУА-моделирования, которые предполагается использовать для описания взаимного влияния известных информативных признаков (реальных потоков) в системе простых комбинаций реальных и виртуальных потов. Множество статических моделей Yполучается не посредством усложнения МГУА- моделей, а посредством МГУА-нейронной сети [146]. Отличие предлагаемой МГУА-нейронной сети от рассмотренной в [146] состоит в том, что каждый блок модели виртуального потока (второй слой модели) является МГУА- нейронной сетью, на входы которой поступают полученные путем МГУА- моделирования модели, включающие множество Xреальных и виртуальных
потоков. Структурная схема i- го блока модели виртуального потока представлена на рисунке 4.21.
Рисунок 4.21 - Структурная схема i- й нелинейной статической модели первого слоя нелинейной динамической модели на основе МГУА - моделирования
В качестве примера в ней использованы четыре МГУА - модели виртуального потока xj.: zx, z2, z3, ztχс нелинейными адалинами (N-A).
МГУА - сеть имеет переменную структуру, которая может изменяться в процессе обучения. Каждый нейрон сети - N-адалина представляет собой адаптивный линейный ассоциатор с двумя входами zgи zhи нелинейным процессором, образованным тремя блоками умножения, и вычисляет квадратичную комбинацию входов вида
255
Процесс обучения МГУА - модели виртуального потока состоит в конфигурации нейронных сетей (рисунок 4.21), начиная с первого скрытого слоя, независимой настройке синаптических весов каждой нелинейной адалины и наращивании количества слоев для достижения необходимой точности прогнозирования. Количество нейронов первого скрытого слоя сети определяется количеством К МГУА - моделей соответствующего эндогенного фактора и не превышает значение К(К-1)/2 - количества сочетаний из К по 2.
После обучения нейронной сети посредством любого из известных алгоритмов обучение [156] оценивается точность моделирования, например, с помощью дисперсии ошибки предсказания для каждого нейрона и формируется группа нейронов, дающих ошибку ниже некоторого априорно заданного порога. Именно выходы этой группы yN являются входами нейросетевой структуры NET1 [146].
4.5 Структура гибридной прогнозирующей системы
Анализ работы существующих методик прогнозирования, проведенный в разделе 1, показывает, что для повышения эффективности работы прогнозирующей системы необходимо объединение достоинств технологий нейронных сетей и систем нечеткого вывода. Для решения данной задачи разработана специализированная гибридная система, которая использует
принципы обучения нейронных сетей на этапе дефуззификации, т.е преобразования нечетких коэффициентов уверенности KYi (x) в четкие номера классов Уі.
Структура разработанной гибридной решающей системы для классификации набора объектов {xi}, в которой в качестве примера выбраны три класса риска профессиональных заболеваний С1, С2 и С3, двенадцать входных информативных признаков P1...P12,в которых выделено три сегмента G1, G2, G3,представлена на рисунке 4.22.
В качестве основы для разработки гибридной системы выбрана распространенная модель нечеткого решающего модуля, состоящая из блоков фуззификатора, агрегатора и дефуззификатора [114]. В отличие от основной структуры в рассматриваемой системе на этапе фуззификации выполняется разбиение признакового пространства на группы для последующего анализа наборов сгруппированных признаков вместо совокупного анализа одновременно всех признаков исходного пространства. Агрегирование выполняется в два последовательных шага: на первом выполняется построение структуры групповых агрегаторов, предназначенных для вычисления коэффициентов уверенности принадлежности объектов к заданному классу на основании каждой группы признаков. Дополнительный информативный признак формируется нейронной сетью с выходом NET4.
На втором шаге для рассчитанных групповых коэффициентов уверенности строятся основные агрегаторы, позволяющие непосредственно определить коэффициент уверенности принадлежности объекта к заданному классу. В качестве дефуззификатора гибридной системы используется нейронная сеть, обучение которой производится на основе исходных обучающих данных, полученных из анализа образцов обучающей выборки больных исследуемом профессиональным заболеванием.
Алгоритм построения гибридной решающей системы для рассматриваемой задачи показан на рисунке 4.23.
Рисунок 4.22 - Структура гибридной решающей системы
Рисунок 4.23 - Алгоритм построения гибридной решающей системы (начало)
Рисунок 4.23 - Алгоритм построения гибридной решающей системы (окончание)
В начале построения системы выполняется ввод числовых значений признаков объектов, разделенных на обучающие данные, т.е. объекты, значения признаков которых будут использованы в алгоритмах обучения нейронных сетей и контрольные данные, на основании которых будет рассчитываться качество прогнозирования, выполняемого системой (блок 1). На следующем этапе выполняется построение нечетких функций принадлежности и фуззификации признакового пространства, рассмотренное в разделе 3.
В блоке 4 выполняется кодирование списка нечетких операций, выбранных для построения агрегаторов, и рассчитываются длины битовых строк для генетических алгоритмов. Блок 5 инициализирует цикл по всем группам признаков классам, в котором для k-й группы строятся наборы агрегаторов по каждому классу: Ag1,k, Ag2,k Ag3,kдля объединения полученных функций принадлежности μi,j в коэффициенты уверенности K¾,k, где i- номер класса (блок 6). Затем выполняется построение агрегаторов A1, A2 A3для объединения полученных значений КУі,кв коэффициенты уверенности КУІпринадлежности объектов к заданному классу (блок 7), после чего выполняется расчет числовых значений КУІпо всем классам (блок 8). На следующем этапе выполняется обучение нейронной сети для использования ее в качестве дефуззификатора нечеткой системы (блок 9).После завершения обучения выполняется прогнозирование результатов риска профессиональных заболеваний с использованием полученной гибридной системы (блок 10) и оценка качества работы системы (блок 11). При неудовлетворительном качестве прогнозирования выполняется подстройка отдельных элементов гибридной системы в зависимости от вида ошибок прогнозирования (блоки 12, 13, 14). Если качество прогнозирования признано удовлетворительным, полученная структура гибридной системы сохраняется в разработанном в среде Matlab
7.1 программном модуле (блок 15).
4.6
Еще по теме 4.4 Метод построения универсального аппроксиматора на основе МГУА- моделей:
- Содержание
- 4.4 Метод построения универсального аппроксиматора на основе МГУА- моделей
- Выводы четвертого раздела