Помощь в написании студенческих работ
Антистрессовый сервис

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора

РефератПомощь в написанииУзнать стоимостьмоей работы

Актуальность. Искусственные нейронные сети (ИНС) с вейвлет-разложением целевого вектора (НСВЦ) созданы авторами для задач распознавания речи и используются в этой области, хотя могут быть применены для широкого круга задач, подразумевающих преобразование одного сигнала (в значении — система отсчётов некоторой функции) в другой сигнал (другую систему отсчётов некоторой функции). На эффективность… Читать ещё >

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора (реферат, курсовая, диплом, контрольная)

Актуальность. Искусственные нейронные сети (ИНС) с вейвлет-разложением целевого вектора (НСВЦ) созданы авторами для задач распознавания речи и используются в этой области, хотя могут быть применены для широкого круга задач, подразумевающих преобразование одного сигнала (в значении — система отсчётов некоторой функции) в другой сигнал (другую систему отсчётов некоторой функции). На эффективность применения нейросетей, и особенно нейрогибридов, указывали многие авторы, например, [1,2]. Так же существует множество работ, обсуждающих и доказывающих высокую эффективность вейвлет-методов для фонемного распознавания [3], особенно следует упомянуть биологическую аналогию вейвлет-обработки звукового сигнала, описанную у Добеши [4]. Таким образом, многочисленные источники подтверждают актуальность использования нейровейвлетных гибридов для задач распознавания речи.

Нейронные сети с вейвлет-разложением целевого вектора. НСВЦ являются специализированным типом нейронных сетей, преобразующих один сигнал (под сигналом здесь и далее имеется в виду система отсчётов некоторой функции, удовлетворяющая условию теоремы Котельникова) в другой сигнал. Их практическая эффективность обусловлена тем, что рассматривая множество выходных сигналов обучающей выборки (далее будем называть их целевыми векторами) с помощью вейвлет-разложения находятся спектральные диапазоны, в которых локализован сигнал, и спектральные области, не значащие для решения, исключаются из области поиска [5]. Исключение производится с помощью проецирования значений нейросети на области спектральной локализации нейронной сети, причём сам процесс проецирования производится за счёт модуля обратного вейвлет-разложения выходного сигнала многослойного перцептрона автоматически. Следует отметить, что вейвлет-разложение целевого вектора многослойного перцептрона и обратное данному вейвлет-разложению преобразование фактических выходных значений многослойного перцептрона являются взаимозаменяемыми операциями.

Так как модуль обратного вейвлет-разложения реализован в нейронном базисе, это позволяет говорить о новой нейронной структуре на базе перцептрона — НСВЦ. Более подробно об этих ИНС можно прочитать в работах авторов ([5,6]). Здесь отметим лишь, что данная структура построена по предложенному авторами принципу локализации решения, в соответствии с которым подбирается преобразование выходных векторов выборки, которое позволяет обнаружить и использовать диапазоны локализации данных векторов (фактически это означает построение грубой модели целевых значений выборки) и выходные значения ИНС проецируются на данные диапазоны, что позволяет сузить область поиска решения, а значит, уменьшить вероятность попадания в локальные максимумы, скорость и точность обучения.

Анализ градиента нейронных сетей с вейвлет-разложением целевых значений. Пусть модуль обратной вейвлет-декомпозиции осуществляет преобразование, обратное вейвлет-преобразованию, заданному двумя зеркльно-квадратурными FIR фильтрами G и H, определяемыми коффициентами hi и gi.

В этом случае вейвлет-разложение может быть реализовано последовательным применением свёрток.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

и .

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

Пусть дана обучающая выборка, i=1,2,…,imax где вектора равны, , и вейвлет преобразование F, преобразующее вектор в набор коэффициентов, j=1,2,…,jmax, l=1,2,…,lmax, где l — номер уровня вейвлет-разложения, а j — номер коэффициента на данном уровне вейвлет-разложения. Компонент обучающей пары будем называть целевым компонентом или целевым вектором. Тогда:

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
  • 1. Целевые компоненты пар-примеров обучающей выборки подвергаются вейвлет-разложению.
  • 2. На каждом уровне l вейвлет разложения по всей выборке выбираются минимальные и максимальные значения

(1).

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (2).

3. Те же самые операции (п. 1 и п.2) проводятся над контрольной выборкой. Результатом являются контрольные минимальные и максимальные значения и .

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

4. Если контрольный максимум не превосходит максимум обучающей выборки более чем на заданную константу точности, а минимум обучающей выборки не превосходит контрольный минимум более чем ту же, , то можно говорить о корректности выбранных минимальных и максимальных значений для данной задачи.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

5. Диапазонами частотной локализации будут области для каждого уровня l вейвлет-разложения.

Данный алгоритм дан здесь в виде инициализации ИНС, но практически возможно не инициализировать величины Il, Sl, а корректировать их в процессе предъявления обучающих примеров.

НСВЦ состоит из двух модулей — многослойного перцептрона (на месте которого, в принципе, может быть любая нейронная сеть, построенная в соответствии с парадигмой «обучение с учителем») и модуля обратной вейвлет-проекции. Значения многослойного перцептрона принципиально ограничены (обычно в диапазонах [-1;1] и [0;1]). Процесс проецирования выходных значений перцептрона, соответствующих l-му уровню масштаба вейвлет-разложения на область частотной локализации будет сдвиг и масштабирование области значений нейронной сети на область частотной локализации. Обозначим верхнее значение, принимаемое входами ИНС будет S, а нижнее I.

Проецирование значений перцептрона на диапазоны частотной локализации решения осуществляется следующим образом:

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (3).

Рассмотрим влияние масштабирования на градиент. Введём следующие обозначения:

E — ошибка слоя. — l-й компонент.

— целевая функция.

dj — желаемый выходной сигнал j-го нейрона слоя.

yj — выходное значение, в общем случае y (0,1).

xi — входное значение.

wij — вес, связывающий i-й вход с j-м выходом.

— взвешенная сумма i-го нейрона, t-го слоя.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

Согласно метода распространения ошибки, имеют место следующие формулы:

(4).

(4).

(5).

(5).

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

.(6).

(7).

(7).

Где — скорость обучения.

(8).

(8).

Пусть D (x) — функция, которая позволяет найти производную активационной функции f по её значению Т. е. если.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

То (9).

такими функциями, будут, например

(10).

(10).

для униполярной функции и.

(11).

(11).

для биполярной функции Рассмотрим для простоты случай биполярной функции.

(12).

(12).

Проанализируем влияние масштабирования на компонент градиента.

Пусть выход yj во всех ситуациях не превосходит. Иными словами,.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
(13).

(13).

Тогда, с учётом того, что нейронная сеть с униполярной функцией активации выходного слоя выдаёт значения в области (0,1) мы можем промасштабировать выход, увеличив его в раз. Для этого достаточно промасштабировать соответствующий целевой вектор. Для этого введём замену переменной Соответственно, Тогда, для масштабированного выхода получаем.

(14).

(14).

(15).

(15).

Используя 10 выводим.

(16).

(16).

(17).

(17).

Введём величину М как отношение к :

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (18).

С помощью несложных расчётов приходим к формуле.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (19).

Собственно, анализ выражения 16 сводится к анализу множителя.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (20).

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

Этот множитель отображает участок биполярной (логистической) сигмоиды на отрезке в полноценную сигмоиду на отрезке. При этом.

(21).

(21).

Исследуем свойства множителя M.

(22).

(22).

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (23).

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

С учётом того, что k>1, множитель всегда отрицательный, проверяя знаки производной в окрестностях особых точек, видим, что M имеет единственный экстремум — максимум в точке y=0.

Таким образом мы пришли к важному выводу: в случае биполярной функции её градиент в k раз больше при y=0, а далее монотонно убывает при и. Мы используем эту особенность для выбора оптимального коэффициента k (см. ниже).

Для дальнейших рассуждений нам понадобиться вычислить отрезок, на котором больше единицы, т. е. найти то множество y, на котором градиент.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

.

Исходя из монотонного убывания M (y) на отрицательной и положительной полуосях для нахождения этого множества нам достаточно найти такие y, при которых M (y)=1.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (24).

Итак, мы вычислили, что при.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

.

Обозначим такую величину, что. Тогда.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (25).

Подберём коэффициент масштабирования таким образом, чтобы.

(26).

(26).

где — максимальное значение y, причём.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

=.

При этом условии будет верно (необходимо помнить, что сигмоидальная функция не принимает значения своего супремума и инфинума), или, что равносильно.

(27).

(27).

для всех значений ограниченной величины y.

Так как.

(28).

(28).

(29).

(29).

что возможно если.

(30).

(30).

Итак, при коэффициенте масштабирования.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

градиент целевой функции больше на всей области значений нейронной сети, что ускоряет обучение ИНС.

Обобщим теперь изложенное в предыдущем пункте на случай вейвлет-преобразования.

Вейвлет-преобразование известно своими сжимающими свойствами, что проявляется в том, что при вейвлет-разложении достаточно широкого класса сигналов коэффициенты высокой детализации обычно близки к нулю. Это свойство используют для сжатия информации с потерями, отбрасывая коэффициенты и получая приближённую модель сигнала.

Как уже говорилось выше, мы рассматриваем узкий случай применения нейронных сетей: когда результатом работы нейронной сети является временной сигнал, а точнее — отсчёты некоторой временной функции.

В этом случае, если искомый сигнал (систему отсчётов функции) разложить с помощью вейвлет-преобразования, и коэффициенты этого вейвлет-преобразования по абсолютной величине малы, то выгоднее искать вейвлет-образ, а не сам сигнал. Причём эффективность возрастает при уменьшении величины коэффициентов. Интуитивно очевидно, что чем больше сигнал можно сжать при помощи выбранного вейвлет-преобразования, тем меньше коэффициенты вейвлет-образа, и тем эффективнее использование НСВЦ. Иными словами, степень сжимаемости сигнала можно считать мерой эффективности нейронной сети с вейвлет-разложением сигнала.

Представим это интуитивное понимание в более формализованном виде:

Теорема об эффективности нейронных сетей с вейвлет-разложением цели.

Пусть

1) дана система из 2k отсчётов f1(t0), f2(t0), f3(t0), …, некоторой функции f(t). Причём.

1) дана система из 2k отсчётов f1(t0), f2(t0), f3(t0), …, некоторой функции f (t). Причём

.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
2) Пусть этой системе отсчётов соответствует вейвлет-образ из n уровней разложения и 2k коэффициентов. Обозначим его коэффиценты как ,, где при j<n+1 - детализирующие коэффициенты вейвлет-образа, а - приближённая (

2) Пусть этой системе отсчётов соответствует вейвлет-образ из n уровней разложения и 2k коэффициентов. Обозначим его коэффиценты как ,, где при j<n+1 — детализирующие коэффициенты вейвлет-образа, а — приближённая («огрублённая») версия сигнала fi.

3) Введём величины.

3) Введём величины

(31).

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

и.

; (32).

; (32).

Тогда

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

если среди коэффициентов существуют такие, что ,.

то

градиент построенной на данном вейвлет-разложении нейронной сети с вейвлет-разложением цели больше по абсолютному значению, чем градиент соответствующей базовой ИНС (ИНС, на основе которой построена НСВЦ).

градиент построенной на данном вейвлет-разложении нейронной сети с вейвлет-разложением цели больше по абсолютному значению, чем градиент соответствующей базовой ИНС (ИНС, на основе которой построена НСВЦ).

Покажем это.

Градиент целевой функции базовой нейронной сети.

(33).

(33).

Градиент целевой функции НСВЦ

(34).

(34).

Пусть.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

.

Тогда из формул 18,20,21.

(35).

(35).

где.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (36).

При этом из соотношения 30 и утверждения 3 теоремы следует что для любых kj, yj, удовлетворяющих условию задачи,.

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.

. (37).

Анализ градиента для нейронных сетей с вейвлет-разложением целевого вектора.
(38).

(38).

Что и требовалось доказать.

Выводы

нейронный вейвлет перцептрон обучение Нами показано, что при нахождении областей частотной локализации и проецировании значений нейронной сети на область локализации решения, в достаточно широких рамках можно добиться увеличения градиента (по сравнению с той же ИНС без частотной локализации и модуля обратной вейвлет-проекции), а следовательно, скорости сходимости нейронной сети.

  • 1. Tebelskis, J. Speech Recognition using Neural Networks: PhD thesis … Doctor of Philosophy in Computer Science/ Joe Tebelskis; School of Computer Science, Carnegie Mellon University.- Pittsburgh, Pennsylvania, 1995. 179 c.
  • 2. Handbook of neural network signal processing/ Edited by Yu Hen Hu, Jenq-Neng Hwang.- Boca Raton; London; New York, Washington D.C.: CRC press, 2001. 384c.
  • 3. Ф. Г. Бойков Применение вейвлет-анализа в задачах автоматического распознавания речи: Дис. … кандидата физико-математических наук: 05.13.18/ Фёдор Геннадьевич Бойков.- М, 2003. 111 с.
  • 4. Добеши И. Десять лекций по вейвлетам.- Ижевск: НИЦ «Регулярная и хаотическая динамика», 2001. 464 с.
  • 5. Астапов К. А. Применение вейвлет-преобразования для сокращения области значения искусственных нейронных сетей на примере задачи распознавания речи// Астапов Константин Андреевич. // Электронный научно-инновационный журнал «Инженерный вестник Дона: электронное научное издание № ГОС. РЕГИСТРАЦИИ 420 900 096, Ростов-на-Дону:. — 2009. — № 1. — регистрационный номер статьи.
  • 6. Червяков Н. И., Астапов К. А. Использование вейвлетов для улучшения параметров нейронных сетей в задачах распознавания речи. // Червяков Николай Иванович; Астапов Константин Андреевич. //Инфокоммуникационные технологии — N° 4. — 2008. — Самара: Издательство ПГУТИ, 2008. — с. — с. 9−12.
Показать весь текст
Заполнить форму текущей работой