Помощь в написании студенческих работ
Антистрессовый сервис

Обучение нечеткой нейронной сети

РефератПомощь в написанииУзнать стоимостьмоей работы

Этапы 1 — 3 итерационно повторяются, и процедура корректировки значений всех параметров считается завершенной в случае, если значение функции ошибки, но каждому примеру обучающей выборки не превышает некоторого установленного порога: При обучении с помощью алгоритма обратного распространения ошибки обеспечивается свойство единственности представления лингвистических термов за счет связанной… Читать ещё >

Обучение нечеткой нейронной сети (реферат, курсовая, диплом, контрольная)

В существующих системах с нечеткими нейронными сетями одним из важнейших вопросов является разработка оптимального метода настройки нечеткой базы правил, исходя из обучающей выборки, для получения конструктивной и оптимальной модели нечеткой нейронной сети. В основном нечеткие правила описываются экспертами или операторами согласно их знаниям и опыту о соответствующих процессах. Но в случае разработки нечеткой нейронной сети довольно тяжело или почти невозможно сразу получить нечеткие правила или функции принадлежности вследствие неясности, неполноты или сложности описываемой системы. В таких случаях целесообразным считается уточнение нечетких правил и функций принадлежности, используя специальные алгоритмы обучения.

Обучение нечеткой нейронной сети ANFIS

Так как нечеткая сеть ANFIS, описанная ранее, представляется в виде многослойной структуры с прямым распространением сигнала, а значение выходной переменной можно изменять, корректируя параметры элементов слоев, то для обучения этой сети можно использовать градиентный алгоритм. Основной характерной чертой данного подхода является то, что настройка параметров функций принадлежности осуществляется без модификации базы правил [7]. Пусть задана обучающая выборка, состоящая из множества примеров, xf^.Xj ,…, х^' - значения входных переменных х, х2,…, хга, y{k) — эталонное значение выходной переменной у в к-м примере, К- общее число примеров в обучающей выборке. Отметим, что для нечеткой нейронной сети ANFIS с использованием алгоритма Сугено настраиваемыми параметрами являются параметры функций принадлежности формула, где ai} — центр функции принадлежности, btj — ширина данной функции.

На первом этапе обучения для каждого примера из обучающей выборки по значениям входных переменных нечеткая сеть рассчитывает значения выходной переменной у .

На втором этапе вычисляется функция ошибки для всех примеров обучающей выборки:

Обучение нечеткой нейронной сети.

В данном случае функция ошибки может быть записана как функция, зависящая от следующих аргументов:

Обучение нечеткой нейронной сети.

На третьем этапе корректируются значения (а,г Ь0) по каждому примеру обучающей выборки, исходя из соотношений.

Обучение нечеткой нейронной сети.

где t — номер итерации обучения, rj е [0,1] - коэффициент, характеризующий скорость обучения.

Этапы 1 — 3 итерационно повторяются, и процедура корректировки значений всех параметров считается завершенной в случае, если значение функции ошибки, но каждому примеру обучающей выборки не превышает некоторого установленного порога:

Обучение нечеткой нейронной сети.

либо оценка средней суммарной погрешности нечеткой сети с учетом всех примеров обучающей выборки не превышает некоторого установленного порога:

Обучение нечеткой нейронной сети.

В этом случае считается, что нечеткая сеть успешно обучилась.

При обучении с помощью алгоритма обратного распространения ошибки обеспечивается свойство единственности представления лингвистических термов за счет связанной адаптации параметров функций принадлежности.

Показать весь текст
Заполнить форму текущей работой