Ознакомьтесь с Условиями пребывания на сайте Форнит Игнорирование означет безусловное согласие. СОГЛАСЕН
 
 
Если в статье оказались ошибки...
 

Этот материал взят из источника в свободном доступе интернета. Вся грамматика источника сохранена.

Выделения в тексте - мои.<br>Мои коммнтарии включены синим цветом.

Нейронные сети : обучение с учителем

Относится к   «Cборник статей по исследованиям психических явлений»

Нейронные сети : обучение с учителем

Со времени публикации была проделана работа по развитию прототипа системы индивидуальной адаптивности Beast (fornit.ru/beast) и появилось много новых данных и материалов с которыми можно ознакомисться в трилогии «Основы фундаментальной теории сознания» и точки входа теории МВАП «Организации механизмов мозга человека».

Е.С.Борисов

27 октября 2002 г.

 



1 Обучение с учителем

  1. Технология обучения с учителем НС предполагает наличие двух однотипных множеств:
    • множество учебных примеров
      - используется для ''настройки'' НС
    • множество контрольных примеров
      - используется для оценки качества работы НС

Элементами этих двух множеств есть пары , где

    • - входной вектор для обучаемой НС;
    • - верный (желаемый) выходной вектор для ;
  1. Так же определим функцию ошибки . Обычно это средняя квадратичная ошибка (mean squared error - MSE) [6]

 


где

    • - количество обработанных НС примеров;
    • - реальный выход НС;
    • - желаемый (идеальный) выход НС;
  1. Процедура обучения НС сводится к процедуре коррекции весов связей HC. Целью процедуры коррекции весов есть минимизация функции ошибки .
  2. Общая схема обучения с учителем выглядит так :

1.      Перед началом обучения весовые коэффициенты НС устанавливаются некоторым образом, на пример - случайно.

2.      На первом этапе на вход НС в определенном порядке подаются учебные примеры. На каждой итерации вычисляется ошибка для учебного примера (ошибка обучения) и по определенному алгоритму производится коррекция весов НС. Целью процедуры коррекции весов есть минимизация ошибки .

3.      На втором этапе обучения производится проверка правильности работы НС. На вход НС в определенном порядке подаются контрольные примеры. На каждой итерации вычисляется ошибка для контрольного примера (ошибка обобщения). Если результат неудовлетворительный то, производится модификация множества учебных примеров1 и повторение цикла обучения НС.

  1. Если после нескольких итераций алгоритма обучения ошибка обучения падает почти до нуля, в то время как ошибка обобщения в начале спадает а затем начинает расти, то это признак эффекта переобучения. В этом случае обучение необходимо прекратить.

В случае однослойной сети алгоритм обучения с учителем - прост. Желаемые выходные значения нейронов единственного слоя заведомо известны, и подстройка весов синаптических связей идет в направлении, минимизирующем ошибку на выходе сети.

По этому принципу строится алгоритм обучения однослойного персептрона [1].

2 Метод Розенблатта

Данный метод был предложен Ф.Розенблаттом в 1959 г. для НС, названной персептрон (perceptron) [1]. Персептрон имеет пороговую функцию активации2; его схема представлена на рис.1.

Рисунок: однослойный персептрон

Процедуру обучения Розенблатта для однослойного персептрона можно представить так [4] :

 

(1)


где

  • - -тый вход НС
  • - желаемый (идеальный) -тый выход НС
  • - коэффициент (скорость обучения)

Весовые коэффициенты меняются только в том случае, если реальное выходное значение не совпадает идеальным выходным значением.

Полный алгоритм обучения Розенблатта строится следующим образом:

  1. весовые коэффициенты НС инициализируются малыми случайными значениями.
  2. подать на вход НС очередной учебный пример.
  3. если выход НС не совпадает с идеальным выходом
    то происходит модификация весов по (1)
  4. цикл с п.2
    пока
    не
    или
    весовые коэф. перестанут меняться

3 Метод Видроу-Хоффа

Персептрон Розенблатта ограничивается бинарными выходами. Видроу и Хофф изменили модель Розенблатта. Их первая модель - ADALINE (Adaptive Linear Element) имела один выходной нейрон3 и непрерывную линейную функцию активации нейронов[3].

 

(2)


Метод обучения Видроу-Хоффа известен еще как дельта-правило (delta-rule). Этот метод ставит своей целью минимизацию функции ошибки в пространстве весовых коэффициентов.

 

(3)


где

  • - количество обработанных НС примеров
  • - ошибка для -го примера
  • - реальный выход НС для -го примера
  • - желаемый (идеальный) выход НС для -го примера

Минимизация осуществляется методом градиентного спуска


где


Таким образом весовые коэффициенты изменяются по правилу

(4)


Полный алгоритм обучения методом Видроу-Хоффа строится следующим образом:

  1. задать скорость обучения ()
    задать минимальную ошибку сети ;
    весовые коэффициенты НС инициализируются малыми случайными значениями.
  2. подать на вход НС очередной учебный пример
    рассчитать выход НС
  3. скорректировать веса по (4)
  4. цикл с п.2 пока
    (где - суммарная среднеквадратичная ошибка НС)

4 Метод обратного распространения

Сеть, имеющую два и более слоёв, уже проблематично обучить описанными выше методами, поскольку в многослойных сетях известен выход лишь последнего слоя нейронов.

Вариант решения этой задачи был предложен Д.Румельхартом с соавторами в 1986 году [2]. Предложенный метод обучения многослойного персептрона, был назван - методом обратного распространения ошибки. Основная идея метода состояла в распространение сигналов ошибки от выходов НС к ее входам, в направлении, обратном прямому распространению сигналов в обычном режиме работы.

Метод обратного распространения ошибки (error back propagation - BP) это итеративный градиентный алгоритм обучения многослойных НС без обратных связей [2][6]. При обучении ставится задача минимизации функции ошибки:

 

(5)


где

  • - реальное значение -того выхода НС;
  • - идеальное (желаемое) значение -того выхода НС;

Минимизация ведется методом градиентного спуска. Подстройка весовых коэффициентов происходит следующим образом:

 

(6)


где

  • - весовой коэффициент синаптической связи, соединяющей -ый и -ый узлы НС;
  • - коэффициент скорости обучения;
  • Второй множитель (6)

(7)


·        Здесь

    • - выход нейрона ,
    • - взвешенная сумма его входных сигналов, то есть аргумент активационной функции.
    • Первый множитель в (7) раскладывается следующим образом:

 

(8)


где число нейронов слоя .

    • Второй множитель (7) есть производная активационной функции по ее аргументу. Из этого следует, что производная активационной функции должна быть определена на всей оси абсцисс 4.
    • Третий множитель (7) , есть выход -того нейрона предыдущего слоя.

Введя новую переменную

 

(9)


мы получим рекурсивную формулу для расчетов величин слоя из величин слоя .

 

(10)


Для выходного слоя

 

(11)


Теперь мы можем записать (6) в раскрытом виде:

 

(12)


Полный алгоритм обучения НС с помощью процедуры обратного распространения ошибки строится следующим образом:

  1. Инициализировать случайным образом все весовые коэф.НС.
  2. Последовательно подать на вход HC все примеры из учебной выборки. Для каждого входа:
    1. Фаза прямого распространения сигнала :
      Вычислить выход каждого нейрона НС.
    2. Фаза обратного распространения сигнала :

Для выходного слоя вычислить изменения весов
по (12) и (11).

Для всех остальных слоев вычислить по (12) и (10)

    1. Скорректировать все веса НС :
  1. Если ошибка НС существенна, перейти на шаг 2,
    иначе - конец работы.

Сноски

... примеров1

либо модификация архитектуры НС

... активации2

функцию единичного скачка

... нейрон3

более поздняя модель - MADALINE имела несколько выходных нейронов

... абсцисс4

таким, образом функция единичного скачка и прочие активационные функции с неоднородностями не подходят. В данном случае применяются гладкие функции - гиперболический тангенс или классический сигмоид с экспонентой

 


Литература

 

1

F.Rosenblatt ''Principles of Neurodinamics.'' 1962, New York: Spartan Books.
Русский перевод:
Ф.Розенблатт ''Принципы нейродинамики.'' Москва ''Мир'' 1965.

2

D.E.Rumelhart, G.E.Hinton, R.J.Williams
''Learning internal representations by error propagation.'' 1986.
In Parallel distributed processing, vol. 1, pp. 318-62. Cambridg, MA: MIT Press.

3

В.Widrow, M.Hoff ''Adaptive switching circuits.'' 1960 IRE WESCON Convention Record, part 4, pp. 96-104. New York: Institute of Radio Engineers.

4

В.А.Головко, под ред.проф.А.И.Галушкина
''
Нейронные сети: обучение, организация и применение'', ИПРЖР, Москва 2001

5

С.Короткий ''Нейронные сети'' - http://lii.newmail.ru/

6

Л.Г.Комарцова, А.В. Максимов ''Нейрокомпьютеры''
Москва, МГТУ им. Н.Э.Баумана, 2002


Evgeny S. Borisov
2003-07-18

 



Обсуждение Еще не было обсуждений.


Дата публикации: 2003-09-25
Последнее редактирование: 2018-04-19

Оценить статью можно после того, как в обсуждении будет хотя бы одно сообщение.
Об авторе:
Этот материал взят из источника в свободном доступе интернета. Вся грамматика источника сохранена.



Тест: А не зомбируют ли меня?     Тест: Определение веса ненаучности

В предметном указателе: Алгоритмы распознавания | Интеллектуальные механизмы | Нейронные сети | Организация памяти мозга | Психика сознание | Психика человека | Психические процессы | Психические центры | Структура психики | Формирование мышления | Анонс предметной области: «Схемотехника адаптивных нейросетей» | Влияние социальных сетей на здоровье человека | Вред социальных сетей | Вред социальных сетей. 5 жирных минусов | Вред социальных сетей: влияние на психику | Роль мотивации в изучении инос... | Knewton: адаптивное обучение в действии | Адаптивная технология обучения | Адаптивное обучение | Адаптивное обучение - будущее рядом - Дистанционный обучатель | Трансцендентальная Медитация Махариши Как учителя ТМ зомбирут медитаторов | Помогите с порогой школьному учителю! | не учите меня жить , лучше помогите материально или о трудностях учительствования | Встреча с Внутренним Учителем | Обсуждение Веб-сайты учителей химии, популярная химия | Обсуждение Клон: Учитель Джон Кехо | Учитель Джон Кехо (Клон)
Последняя из новостей: Трилогия: Основы фундаментальной теории сознания.

Обнаружен организм с крупнейшим геномом
Новокаледонский вид вилочного папоротника Tmesipteris oblanceolata, произрастающий в Новой Каледонии, имеет геном размером 160,45 гигапары, что более чем в 50 раз превышает размер генома человека.
Тематическая статья: Тема осмысления

Рецензия: Рецензия на книгу Дубынина В.А. Мозг и его потребности. От питания до признания

Топик ТК: Интервью с Константином Анохиным
 посетителейзаходов
сегодня:00
вчера:11
Всего:857111493

Авторские права сайта Fornit