Нейрокомпьютинг и его применения в экономике и бизнесе



   Купить информационные настенные стенды.            

Самообучающийся слой


В нашей трактовке правила обучения отдельного нейрона, последний пытается воспроизвести значения своих входов по амплитуде своего выхода. Обобщая это наблюдение, логично было бы предложить правило, по которому значения входов восстанавливаются по всей выходой информации. Следуя этой линии рассуждений получаем правило Ойа для однослойной сети:

\Delta w^\tau_{ij}=\eta y^\tau_i(x^\tau_j-\mbox{\~{x}}^\tau_j)=\eta y^\tau_i(x^\tau_j-\sum_k y_k^\tau w_{kj}),

или в векторном виде:

\Delta w^\tau_{i}=\eta y^\tau_i(x^\tau_j-\sum_k y_k^\tau w_{k}).

Такое обучение эквивалентно сети с узким горлом из скрытых линейных нейронов, обученной воспроизводить на выходе значения своих входов.

Автоассоциативная сеть с узким горлом - аналог правила обучения Ойа

Рис. 4.6.  Автоассоциативная сеть с узким горлом - аналог правила обучения Ойа

Скрытый слой такой сети, так же как и слой Ойа, осуществляет оптимальное кодирование входных данных, и содержит максимально возможное при данных ограничениях количество информации.




Содержание  Назад  Вперед