
Чтобы начать тему, я по просьбам трудящихся, выкладываю сюда перевод моего доклада о работе мозга, который я написала раньше для своего класса по нейробиологии. Хочу сразу сказать что мой американский профессор очень высоко оценил этот доклад, даже прислал личный емайл с похвалой, сказал что ему очень понравилось, и в основном он со всем согласен. Хотя, конечно, я хочу сразу сказать, что не претендую на абсолютную истину, поскольку некоторые моменты в нейробиологии ещё являются спорными и недоказанными вообще. Извиняюсь за машинный перевод, хотя я постаралась его немного подправить:
=========
Нейронные сети и лимбическая система.
Человечеству во все времена было интересно как работает мозг, как он обучается, как запоминает информацию, как производит мысли и т.д. Особый интерес работа мозга вызывает всвязи с психическими заболеваниями, поскольку чтобы помочь таким больным исправить работу их мозга, надо знать как человеческий мозг вообще работает.
Прежде чем мы начнём говорить о работе мозга, давайте рассмотрим одну из самых популярных компьютерных моделей, имитирующую работу нейронов, способную к самообучению и запоминанию – т.е. нейронную сеть. Несмотря на громоздкость и излишнюю сложность, нейронные сети имеют одно очень важное преимущество перед традиционными програмными алгоритмами – они способны самообучаться и самостоятельно приспосабливатся под внешние условия. Такие сети, после обучения, могут заранее предсказывать результат подобной ситуации ещё до получения самого результата, поэтому нейронные сети широко применяются разработчиками компьютерных игр, военными, учёными и т.д. Нейронные сети в наше время обычно реализуются с помощью програмных блоков (“объектов” и “классов”), и баз данных, хотя есть варианты реализации нейронных сетей только с помощью аппаратного обеспечения.
Итак, классическая искусственная нейронная сеть (перцептрон) – это набор однотипных блоков (принцип “чёрного ящика”), соединённых между собой связями. Каждый блок на одном слое подключен к каждому блоку на следующем слое. Каждый блок имеет вход и выход. Каждый блок может изменять состояние связей (т.е. усиливать или ослабевать “вес связи”) в зависимости от сигнала, и может сохранять это изменённое состояние после завершения сигнала. Нейронные сети также обычно имеют сигнал обратной связи, который добавляет или вычитает значение веса связей. Иногда в нейронные сети встраивают механизм отслеживания ошибок – т.е. механизм проверяющий насколько ожидаемый результат соответствует реальному результату.
Согласно общепризнанной в нейробиологии “теории Хебба”, уже связанные нейроны которые активизируются одновременно – укрепляют связи между ними, а нейроны которые активизируются неодновременно (т.е. активизируются вразнобой) – ослабевают связи между ними. Поэтому наша модель тоже будет усиливать связи между блоками которые активизируются одновременно, и ослаблять связи между блоками, которые активизируются вразнобой.
Давайте рассмотрим простейшую модель такой нейронной сети:

Каждое соединение имеет определенный “вес связи” для модуляции выходного сигнала, представленные на этой картинке числом рядом с каждой строкой. Для наглядности мы также обозначим вес связи жирной или пунктирной линией.
Допустим, что для этой модели, у нас есть 3 вида сигналов обратной связи, которые обучают модель изменяя вес всех соединений учавствующих в процессе получения этой обратной связи. Одновременная активизация связанных блоков добавляет к весу связи между ними (+1), в “разнобой” - вычитает (-1) из веса связей. Когда мы подаем новый сигнал на первый уровень нашей сети (вход), то она сначала старается найти уже существующую наилучшую комбинацию на втором уровне, а если таковой не находится, то берёт новый свободный блок на втором уровне и связывает его с данной комбинацией. Когда соединение достигает максимального значения (как в положительную (+1), так и в отрицательную (-1) сторону), то рост значений прекращается.

Например, мы подаем сигнал только на входной узел снизу, и получаем вознаграждение за это. Это приведет к изменению веса связей между всеми узлами, которые были вовлечены в процесс, поэтому вы видите цифры идут вверх рядом с линиями соединяющими узлы которые активизируются одновременно, связи между ними укрепляются, а связи между узлами которые не активизируются одновременно - ослабевают - пунктирная линия. (рис.1) Далее мы подаем сигнал только на верхний узел, но на этот раз мы получаем наказание. (рис.2) Потом мы подаем сигнал на обоих узлах, но на этот раз мы снова получаем наказание. (рис.3)
Чтобы сделать блоки на втором уровне ещё более привязанными к уникальной комбинации на первом уровне, можно дать всем блокам небольшое дополнительное значение (+0,5), и разделить его на количество связей к блоку. (рис.4) Таким образом, если сильная связь является единственной, то она получит немного больший вес, чем если к блоку ведет сразу несколько сильных связей. (В реальных нейронах, если к нейрону ведёт только один аксон, и нет никаких других “конкурентов”, то связь с этим единственным аксоном тоже постепенно немного усиливается.)
Теперь наша модель может предсказать исход подобной ситуации, если она возникает снова. Например, если мы снова подадим слабый тестовый сигнал только на нижний входной блок, то скорее всего первым опять активизируется именно самый нижний блок на втором уровне, поскольку он уже настроен именно на такую комбинацию, остальные блоки второго уровня имеют или более слабые связи с нижним входным блоком, или ещё требуют и сигнал на верхнем входном блоке. Таким образом наша нейронная сеть может заранее предсказать результат, ещё до получения самого результата (т.е. до самой награды или наказания), что может быть очень важно для принятия решения.

Можно сказать, что в процессе обучения, наша модель “запомнила”, что:
1) сигнал только на нижнем входе и нет сигнала на верхнем - означает награду
2) сигнал только на верхнем воде или на обоих узлах одновременно - означает наказание
3) никакого сигнала - означает нейтральное состояние.
Тоесть блоки выходного третьего уровня теперь будут реагировать только на такие комбинации входного сигнала.
Разумеется, это очень упрощенная модель обучения и в реальной жизни будет множество улучшений для этой модели. Например, в реальной жизни мы не должны помнить все возможные комбинации, поэтому мы можем перенаправить несколько подобных входных комбинаций в один и тот-же узел на втором уровне, что поможет нам сделать нашу сеть значительно меньше. Однако, чтобы не увлечься таким “упрощением”, мы должны будем отслеживать ошибки между прогнозируемым и реальным результатом, и добавлять новый узел, если ошибка значительно превысит ожидание.
Тем не менее, эта простая модель дает нам некоторое общее представление о том, как мозг учится на своих собственных ошибках и наградах. В 1958 году Нобелевские лауреаты Hubel и Wiesel обнаружили, что вся кора головного мозга организована в однотипные столбцы нейронов реагирующих только на строго определённые комбинации входного сигнала.[1,2] Каждый столбец содержит около 80-100 нейронов, имеет входные и выходные связи, т.е. очень похож на один блок в нашей нейронной сети. Например, каждая группа столбцов зрительной коры (область V1) получает входной сигнал только из небольшой области в поле зрения (“угол зрения”), и потом каждый столбец в этой группе (т.н. “столбец ориентации”) выборочно реагирует только на определённые комбинации входного сигнала, представляющие крошечную линию под разными углами, а другие столбцы в группе на такую позицию линии не реагируют вообще или реагируют очень слабо. [1,2]

Потом несколько смежных “столбцов ориентации” из области V1 направляют выход на столбцы в другую область коры мозга (V2), которая отвечает за более широкий угол зрения, ассоциирует нескольких маленький линий в более длинную линию или фигурку, причём каждый столбец области V2 реагирует только на определённую комбинацию входных линий (например, только на круг). Потом сигнал из области V2 передаётся дальше (V3, V4), сигнал всё больше суммируется, пока весь объект (например, лицо обезьяны) не будет распознан некоторыми столбцами в височной коре (TEO и TE). Например, в многочисленных опытах на обезьянах было показано, что столбцы области TE (которую также иногда называют IT) реагируют только на определённые лица знакомых обезьян, причём разные столбцы реагируют на разное положение лица обезьяны (анфас, профиль, и т.п.). [3,4,5,6,7,8] Все уровни зрительного распознавания имеют сигналы обратной связи с предыдущими уровнями (точно также как и наша упрощённая модель нейронной сети).

Подобная постепенная суммаризация и распознавание происходит также и в других областях коры мозга, давая все больше и больше информации об объекте. Активация некоторых столбцов в теменной доле отвечает за местоположение объекта (DM). Другие столбцы укажут нам, куда этот объект движется и с какой скоростью (области MT, FST, MST), как он пахнет, какие звуки издаёт, и т.д. В конце концов, вся информация о данном объекте объединяется с информацией о других объектах в окружающем пространстве, и отправляется "исполнительному директору" мозга - лобной доле, которая отвечает для распознавание всей ситуации в целом, определение сходства или различия между подобными ситуациями в прошлом, принятие решений и их исполнение.
(продолжение ниже...)