Ознакомьтесь с Условиями пребывания на сайте Форнит Игнорирование означет безусловное согласие. СОГЛАСЕН
ВХОД
 
 
Привет! Правила | Свежее | Чат | Подписка
Чтобы оставлять сообщения нужно авторизоваться.

Тема форума: «Саморегуляция синапса»

Сообщений: 47 Просмотров: 12070 | Вся тема для печати
В теме заданы строгие правила
1 2 3 4
 
antonov_v_m
Full Poster


Сообщений: 35
список всех сообщений
clons

В предыдущем сообщении изображён фрагмент матричной структуры мозга с выходом на одну мышцу. Эта схема нисколько не похожа на нейронные сети.

Алгоритм обучения матричного мозга.

1)  Ef = сумма (bi ci)

Ef - фактический сигнал управления; bi  - возбуждение рецептора; ci - проводимость соответствующего синапса.

2) dE = Ej - Ef 

dE - ошибка сигнала управления; Ej - требуемый сигнал управления.

3) dci = dE bi / сумма (bi2)

dci - поправка проводимости i-го синапса.

4) ci = ci + dci

 


Метка админа:
Спасибо за это сообщение! Благодарность от: usr
 
Маск
УДАЛЕН

Сообщений: 39
список всех сообщений
clons
Сообщение № 43468 показать отдельно Апрель 17, 2016, 09:09:03 PM
ответ -только после авторизации
автор: antonov_v_m сообщение 43422:
Мы пришли к выводу, что живой мозг сразу же принимает решения

Конечно сразу и мозг это совсем не Я.


Метка админа:

 
antonov_v_m
Full Poster


Сообщений: 35
список всех сообщений
clons
Сообщение № 43469 показать отдельно Апрель 18, 2016, 12:30:20 PM
ответ -только после авторизации

Меня просили и я обещал привести здесь простейший пример обучения по указанному алгоритму.

Пример.

Пусть очувствление состоит только из двух рецепторов и пусть будут только две ситуации:

1-ая ситуация: b1 = 1;   b2 = 3; сигнал управления E1 = 1

2-ая ситуация: b1 = 3;   b2 = 1; сигнал управления E2 = 2

Исходные проводимости синапсов: c1 = 0; c2 = 0.

Посмотрим - как будут формироваться эти проводимости в процессе обучения.

Цикл 1-ый; ситуация 1-ая (1.1.).

Ef = 1*0 + 3*0 = 0;  dE = 1-0 = 1; dc1 = 1*1/(12+32) = 0,1; dc2 = 1*3/(12+32) = 0,3; c1 = 0+0,1 = 0,1; c2 = 0+0,3 = 0,3.

1.2. Ef = 3*0,1+1*0,3 = 0,6; dE = 2-0,6 = 1,4; dc1 = 1,4*0,3 = 0,42; dc2 = 1,4*0,1 = 0,14; c1 = 0,1+0,42 = 0,52; c2 = 0,3+0,14 = 0,44.

2.1. Опустим вычисления. Ef = 1,84; dE = -0,84; dc1 = -0,084; dc2 = -0,252; c1 = 0,436; c2 = 0,188.

2.2. Ef = 1,496; dE = 0,504; dc1 = 0,1512; dc2 = 0,0504; c1 = 0,5872; c2 = 0,2384.

И так далее. После четырёх циклов обучения получим c1 = 0,620; c2 = 0,1397.

Контрольная проверка: в 1-ой ситуации Ef = 1*0,620+3*0,1397 = 1,039; во 2-ой ситуации Ef = 3*0,620+1*0,1397 = 1,999. 

И это - результат саморегуляции синапсов.


Метка админа:
Спасибо за это сообщение! Благодарность от: usr
 
usr
Пишет без ограничений, редактирует историю - unlimited

Сообщений: 521

Оценок: 2
список всех сообщений
clons
Сообщение № 43470 показать отдельно Апрель 18, 2016, 01:27:56 PM
ответ -только после авторизации

Уважаемый antonov_v_m, спасибо за пример. Разобрал сам вручную на бумаге за вами.

 

Я думаю, к вашему алгоритму изменения проводимости синапсов стоит добавить еще 1 параметр:

epsilon - порог отклонения реального сигнала управления на данный мотонейрон Ef от желаемого Ej.

 

А также в конец цикла обучения добавить сравнение по модулю фактического и желаемого отклика:

if(|Ej - Ef| > epsilon)

    continue educational cycle

else

    stop //достигнуто желаемое значение с заданной точностью


Метка админа:

 
antonov_v_m
Full Poster


Сообщений: 35
список всех сообщений
clons
Сообщение № 43471 показать отдельно Апрель 18, 2016, 01:50:29 PM
ответ -только после авторизации
автор: usr сообщение 43470:
Я думаю, к вашему алгоритму изменения проводимости синапсов стоит добавить еще 1 параметр: epsilon - порог отклонения реального сигнала управления на данный мотонейрон Ef от желаемого Ej.   А также в конец цикла обучения добавить сравнение по модулю фактического и желаемого отклика:

Живой мозг (а тема посвящена ему) ни на минуту не прекращает своё обучение, совмещая его с работой. Поэтому всякие ограничения и остановки у него не предусмотрены.

Но с чисто программной позиции - Вы правы.


Метка админа:

 
usr
Пишет без ограничений, редактирует историю - unlimited

Сообщений: 521

Оценок: 2
список всех сообщений
clons
Сообщение № 43472 показать отдельно Апрель 18, 2016, 01:59:00 PM
ответ -только после авторизации

Я только не понял, почему у вас в пункте 1.2 в качестве bi и E взяты данные для 2 ситуации?

Если обучать для ситаций последовательно по вашему алгоритму, то для обеих ситуаций процесс сходится на 2 шаге обучения, давая коэффициенты:

I: (0,1 0,3): 1*0,1 + 3*0,3 = 0,1 + 0,9 = 1

1 - E1 = 1 - 1 = 0 - цель достигнута

 

II: (0,6 0,2): 3*0,6 + 1*0,2 = 1,8 + 0,2 = 2

2 - E2 = 2 - 2 = 0 - цель достигнута


Метка админа:

 
antonov_v_m
Full Poster


Сообщений: 35
список всех сообщений
clons
Сообщение № 43473 показать отдельно Апрель 18, 2016, 02:27:41 PM
ответ -только после авторизации
автор: usr сообщение 43472:
Я только не понял, почему у вас в пункте 1.2 в качестве bi и E взяты данные для 2 ситуации?

Пункт 1.2. означает: цикл 1-ый, ситуация 2-ая.


Метка админа:

 
usr
Пишет без ограничений, редактирует историю - unlimited

Сообщений: 521

Оценок: 2
список всех сообщений
clons
Сообщение № 43476 показать отдельно Апрель 18, 2016, 10:01:00 PM
ответ -только после авторизации

Насколько я понял, в хотите, чтобы при подаче в систему исходных данных вида:

(1, 3) Выход: 1
(3, 1) Выход: 2

То есть, мы имеем систему из 2-х линейный уравнений с двумя неизвестными:

1*x1 + 3*x2 = 1
3*x1 + 1*x2 = 2

Решив её аналитически, мы получим: x1 = 0,625; x2 = 0,125.

Проверка для 1 ситуации: 1* 0,625 + 3*0,125 = 0,625 + 0,375 = 1 (верно)
Проверка для 2 ситуации: 3* 0,625 + 1*0,125 = 1,875 + 0,125 = 2 (верно)

Вы решаете задачу методом последовательных приближений. Но мы должны учитывать, что ситуаций обучения не может быть больше числа уравнений. Иначе, если прямые не пересекаются в одной точке, мы не получим решения.

Также может быть случай, когда прямые параллельны и решения нет. Тогда процесс не сойдется.


Метка админа:

 
antonov_v_m
Full Poster


Сообщений: 35
список всех сообщений
clons
Сообщение № 43477 показать отдельно Апрель 19, 2016, 08:10:40 AM
ответ -только после авторизации
автор: usr сообщение 43476:
Насколько я понял, в хотите, чтобы при подаче в систему исходных данных вида:
(1, 3) Выход: 1 (3, 1) Выход: 2
То есть, мы имеем систему из 2-х линейный уравнений с двумя неизвестными:
1*x1 3*x2 = 1 3*x1 1*x2 = 2
Решив её аналитически, мы получим: x1 = 0,625; x2 = 0,125.
Вы решаете задачу методом последовательных приближений. Но мы должны учитывать, что ситуаций обучения не может быть больше числа уравнений. Иначе, если прямые не пересекаются в одной точке, мы не получим решения.
Также может быть случай, когда прямые параллельны и решения нет. Тогда процесс не сойдется.

1. Перед нейрофизиологами стоит задача не нахождение оптимального алгоритма решения системы линейных уравнений, а раскрыть секрет - как делает это живой мозг.

2. И критерии решаемости (сходимости) у нейрофизиологов - иные, чем у математиков (хотя они отражают одно и то же). Число слагаемых в уравнениях системы равно числу рецепторов очувствления и переваливает за миллиарды. А число ситуаций может быть каким угодно: от единиц до бесконечности.

У живого мозга нет понятия нулевой сходимости; оно заменяется допустимым отклонением. Алгебраические исследования процесса обучения мозга по указанному алгоритму показывают, что отношение погрешности обучения в конкретной ситуации последующего цикла к той же погрешности предыдущего цикла - величина постоянная, характеризующая степень сходства ситуаций: dE(T) = s*dE(T-1) (В рассмотренном примере обучения она равнялась 0,36.) Так как степень сходства ситуаций - всегда меньше единицы , то, следовательно, процесс обучения - всегда сходящийся. Исключением могло быть полное сходство ситуаций (когда s = 1), ("когда прямые параллельны и решения нет" - как говорите Вы), но мы вправе принимать такие ситуации за одну повторяющуюся. 


Метка админа:

 
usr
Пишет без ограничений, редактирует историю - unlimited

Сообщений: 521

Оценок: 2
список всех сообщений
clons
Сообщение № 43479 показать отдельно Апрель 19, 2016, 12:59:10 PM
ответ -только после авторизации

Работы живого мозга предлагаю не касаться пока, оставаясь исключительно в рамках нашей математической модели. Предлагаю использовать математическую терминологию, а не нейрофизиологическую.

автор: antonov_v_m сообщение № 43477:
Алгебраические исследования процесса обучения мозга по указанному алгоритму показывают, что отношение погрешности обучения в конкретной ситуации последующего цикла к той же погрешности предыдущего цикла - величина постоянная, характеризующая степень сходства ситуаций: dE(T) = s*dE(T-1)

Расскажите подробнее, пожалуйста, как получена эта формула и что такое s.


Метка админа:

 
antonov_v_m
Full Poster


Сообщений: 35
список всех сообщений
clons
Сообщение № 43480 показать отдельно Апрель 19, 2016, 02:29:00 PM
ответ -только после авторизации
автор: usr сообщение 43479:

Работы живого мозга предлагаю не касаться пока, оставаясь исключительно в рамках нашей математической модели. Предлагаю использовать математическую терминологию, а не нейрофизиологическую.

автор: antonov_v_m сообщение 43477: Алгебраические исследования процесса обучения мозга по указанному алгоритму показывают, что отношение погрешности обучения в конкретной ситуации последующего цикла к той же погрешности предыдущего цикла - величина постоянная, характеризующая степень сходства ситуаций: dE(T) = s*dE(T-1)

Расскажите подробнее, пожалуйста, как получена эта формула и что такое s.

Откровенно сказать, математическую терминологию я порядком уже подзабыл; давно это было.

Степень сходства ситуаций (образов) s возникает в процессе обучения по приведённому алгоритму. Для двух ситуаций она имеет вид

s = (сумма (b1*b2))2 / ((сумма b12)*(сумма b22))

b1 и b2 - возбуждения рецепторов соответственно в 1-ой и во 2-ой ситуациях.


Метка админа:

 
antonov_v_m
Full Poster


Сообщений: 35
список всех сообщений
clons
Сообщение № 43482 показать отдельно Апрель 22, 2016, 08:50:21 AM
ответ -только после авторизации
автор: usr сообщение 43436:
Я сознательно пишу "нейронная сеть", потому что граф сети можно представить в виде взвешенной матрицы смежности, что вы и сделали. Так что математически это одно и то же.

Хочу вернуться к этим словам.

Если нейронные сети настолько универсальны, что схемы матричного мозга являются их разновидностями, то, может быть, и схемы телевизоров (и мобильных телефонов, и чего угодно) можно также считать их разновидностями?


Метка админа:

 
usr
Пишет без ограничений, редактирует историю - unlimited

Сообщений: 521

Оценок: 2
список всех сообщений
clons
Сообщение № 43483 показать отдельно Апрель 22, 2016, 05:57:54 PM
ответ -только после авторизации
автор: antonov_v_m сообщение 43482:
Если нейронные сети настолько универсальны, что схемы матричного мозга являются их разновидностями, то, может быть, и схемы телевизоров (и мобильных телефонов, и чего угодно) можно также считать их разновидностями?

Не нужно сарказма. Во всех этих приложениях (включая электрические схемы) мы имеем дело с графами того или иного вида. См. теорию графов.


Метка админа:

 
antonov_v_m
Full Poster


Сообщений: 35
список всех сообщений
clons
автор: usr сообщение 43483:
автор: antonov_v_m сообщение 43482: Если нейронные сети настолько универсальны, что схемы матричного мозга являются их разновидностями, то, может быть, и схемы телевизоров (и мобильных телефонов, и чего угодно) можно также считать их разновидностями? автор: usr сообщение 43483: Не нужно сарказма. Во всех этих приложениях (включая электрические схемы) мы имеем дело с графами того или иного вида. См. теорию графов.

Какой же здесь сарказм? Ваш ответ - однозначен: любая схема (включая электрические) является графом того или иного вида. Следовательно, любая схема может считаться также нейронной сетью.

Такой формальный подход не устраивает специалистов; матричная схема мозга (сообщение 43463) не имеет ничего общего со схемами нейронных сетей. И для исследования мозга больше подходит не теория графов (или теория нейронных сетей), а образная математика.

Отличительной особенностью нейронных сетей, по нашему мнению, является приписываемая им способность анализировать ситуации и принимать решения. Говоря простым языком. в них прячутся, своего рода, гномы-анализаторы и гномы-менеджеры (нейроны-распознаватели и нейроны-управленцы).

Ничего такого в мозге нет.

И только осознание того, что нейронные сети вводят только в заблуждение, позволило в своё время напрочь отказаться от них и перейти к матричной структуре мозга с саморегулируемыми синапсами.

 


Метка админа:

 
usr
Пишет без ограничений, редактирует историю - unlimited

Сообщений: 521

Оценок: 2
список всех сообщений
clons
Сообщение № 43487 показать отдельно Апрель 23, 2016, 10:55:07 AM
ответ -только после авторизации
автор: antonov_v_m сообщение 43486:
Ваш ответ - однозначен: любая схема (включая электрические) является графом того или иного вида.

Да, если она состоит из конечного и дискретного множества элементов и связей между ними.

автор: antonov_v_m сообщение № 43486:
любая схема может считаться также нейронной сетью.

Наоборот, граф --- более широкое понятие по сравнению с понятием "нейронная сеть".

автор: antonov_v_m сообщение № 43486:
матричная схема мозга не имеет ничего общего со схемами нейронных сетей

Ваша матрица --- это матрица смежности полносвязного графа, где узлами являются рецепторы и эффекторы.


Метка админа:

 
1 2 3 4 Статистика:
Всего Тем: 1925 Всего Сообщений: 47850 Всего Участников: 5200 Последний зарегистрировавшийся: kghkgklg
Страница статистики форума | Список пользователей | Список анлимитов
Последняя из новостей:
Трилогия: Основы фундаментальной теории сознания.

Обнаружен организм с крупнейшим геномом
Новокаледонский вид вилочного папоротника Tmesipteris oblanceolata, произрастающий в Новой Каледонии, имеет геном размером 160,45 гигапары, что более чем в 50 раз превышает размер генома человека.
Тематическая статья: Тема осмысления

Рецензия: Рецензия на статью

Топик ТК: Главное преимущество модели Beast
Пользователи на форуме:

Из коллекции изречений:
>>показать еще...