История часто показывает, что новое далеко не всегда сходу подхватывается и тут же повсеместно внедряется, скорее наоборот, часто не замечается. Подтверждением тому послужили обсуждения на двух форумах, программистском и биологическом, что есть интеллект, разум, сознание. Как оказалось – мнений множество, многие прямо противоположные, что и дает повод предположить: появление искусственных разумных существ может оказаться не замеченным. В качестве провокации для обсуждения была предложена аннотация очередной версии программной реализации искусственного живого существа Beast.
Первое, с чем пришлось столкнуться – путаница между понятиями ИИ (искусственный интеллект) и ИР (искусственный разум). Они часто приравниваются, после чего указывают на нейросеть и приводятся примеры, когда 5-10-20 лет назад на вопрос, сможет ли нейросеть когда-нибудь сделать то-то и то-то, авторитетный эксперт говорил категоричное нет, а теперь нейросеть это делает запросто. Из чего делался вывод: логично тогда допустить, что через n-цать лет мощности компьютеров, «глубины обучения», IT-технологии достигнут такого уровня, что реагирования нейросети невозможно будет отличить от реакций человека, поэтому можно уже сейчас перестать обращать внимание на эту разницу.
Если отбросить все заумности, нейросеть занимается по большому счету прогнозированием наиболее подходящего варианта ответа (с точки зрения оператора) на внешний пусковой стимул на основе анализа массива данных, предоставляемых ей при обучении. И затем уже самостоятельно способна отличить без подсказки, например кошек от собак. В более сложных случаях можно учитывать обучение «в динамике», что создает впечатление, словно нейросеть способна догадываться, что последует за очередным стимулом. Она действительно догадывается, выявляя какие-то закономерности развития ситуации и строя прогнозы на их основе. И судя по всему, этот момент внушает оптимизм энтузиастам нейросетевых технологий, что однажды, при определенном развитии, она способна будет, как в известной телеигре, «угадать мелодию» всего по нескольким нотам. Что это, как не проявление разума, ведь никто ее не учил, что именно эти признаки означают такой-то объект – она «сама догадалась».
Легко спутать отражение в зеркале с оригиналом, которого не видно. На этом построено множество фокусов, например с отрезанной головой на столе, когда при определенном ракурсе создается иллюзия, что голова действительно лежит отрезанной на блюде на маленьком столике с ножками – и под столом пусто. В данном случае нейросеть лишь отражает поведение (реакции) оператора, действует так, как поступил бы он на ее месте – она буквально отзеркаливает его модель поведения и ничего более. Если в качестве обучающих данных предоставить ей модель поведения множества людей, например в виде больших массивов сочиненных людьми текстов, она отразит их обобщенную модель поведения (культуру). Ее «мысли» всегда будут отражением чужих потому, что без самоощущения и способности оценивать результаты выполненных действий, нейросеть в принципе не способна ничего «измыслить», у нее нет собственного мнения.
Многие разработчики нейросетей понимают, что нейросеть лишь отражение разума, но не придают этому особого значения потому, что если вопрос стоит: сделать чат-бот, способный вести диалоги, который человек сочтет осмысленными, и нейросеть это делает – что еще нужно? Есть ТЗ, надо сделать по нему – а что там в итоге вышло, ИИ или ИР, пусть философы разбираются.
Такой же подход видимо существует и среди спонсоров развития нейросетевых технологий. Зачем вкладываться в какие-то сомнительные философии, когда есть доказавшая состоятельность технология, бурно развивающаяся и дающая реальные гешефты? Кроме того, если как уверяют эти чудаки, настоящий, а не имитационный разум будет способен самостоятельно мыслить и принимать решения – зачем он такой красивый нужен? Робот, сделавший брак, потому что «задумался о чем-то своем», или того хуже, не желающий работать вообще, потому, что надоело – кто такое купит, зачем в это вкладываться?
Но наиболее интересными оказались дискуссии с теми, кто тоже занимается программной реализацией искусственного интеллекта в направлении, отличном от нейросетевых технологий. Не отрицая принципиальную возможность программной реализации, они относят ее на неопределенное будущее, когда появятся соответствующие технологии. И дело тут не только в недостатке производительности существующих машин.
Одна из распространенных на сегодняшний день теорий сознания – это теория функциональных систем П.К. Анохина, частичный разбор которой сделан по его статье Философский смысл проблемы естественного и искусственного интеллекта.
К этой теории чаще всего апеллировали, пытаясь доказать принципиальную несостоятельность Beast, как модель искусственного живого разумного существа. Теория была впервые озвучена еще в 1939 году, сделав акцент на активную составляющую реагирования, когда действие завершается достижением целевого результата и его оценкой, в отличие от реактивного подхода, где за стимулом просто следует ответ. Согласно реактивностному подходу не может быть никакой активности без внешних стимулов, а согласно новому агент может реагировать для достижения субъективно поставленной цели, даже если не было никакого внешнего стимула.
Вот с понятием цели, прогностического реагирования и вышли споры. Утверждалось, что никакими алгоритмами в принципе невозможно организовать «системный нейрогенез», под которым подразумевалось создание принципиально нового реагирования. Должна быть некая надсистема, задающая тренд изменений (цель), что позволяет изменять реагирование с учетом будущих потребностей. При этом все попытки вывести такой тренд из предыдущего опыта некорректны потому, что… не корректны. Нужен принципиально другой подход. Возможно, стоит обратить внимание на квантовые запутанности и что-то подобное.
Поначалу меня такой подход озадачил. Посмотрим, что собственно говорил П.К. Анохин:
Живая система существует как целое до тех пор, пока ее жизненно важные константы строго поддерживаются на определенном уровне. Но вот здесь-то и должно было возникнуть препятствие для сохранения жизни. Дело в том, что любая реакция животного или любой приспособительный эффект, с точки зрения теории вероятностей, есть одна из многих возможных вариаций одной и той же реакции. Эта рассеянность степеней свободы реакции, зависящая от особенностей многочисленных связей в центральной нервной системе, была бы одним из серьезных препятствий для развития совершенного приспособления животного к внешнему миру. Можно представить себе, что реакция животного А в зависимости от условий может иметь варианты в виде целой серии близких реакций — a1, а2, а3, an. Какая из них закрепится в структурах организма как наиболее полезная? Как организм оценит эту степень полезности данной реакции? Естественно, что без этой оценки полезности все приспособительное поведение животного превратилось бы в сплошной хаос.
И вот в процессе эволюции живых существ, вероятно, уже на очень ранней стадии развития, возникло универсальное приспособление в виде обратной сигнализации о полезности совершенного действия. Этим самым был достигнут тот уровень развития, при котором степени свободы каждой реакции (рассеянность реакции) значительно уменьшились, а организм получил возможность на основе этих обратных сигналов осуществлять непрерывную «подгонку» своего поведения вплоть до получения максимального полезного эффекта.
Здесь П. К. Анохин по сути говорит об определении жизни как самоподдерживающейся системы гомеостаза. В нашей модели живого существа Beast так и есть: жизненные параметры, критические уровни, сигнальные состояния Плохо/Норма/Хорошо. Что же показалось принципиально невозможным для программной реализации? Как я понял, постоянная апелляция к некой «надсистеме», без которой невозможно никакое прогностически-целевое реагирование. Но мне удалось найти только одну зацепку у П. К. Анохина, на основании которой можно ее ввести:
Микроэлектродный метод дает нам возможность установить, что некоторые нейроны, испытывая настоящее раздражение, включают накопленный в прошлом опыт и одновременно с этим формируют процессы, содержащие в себе качества того результата действия, который будет получен только в будущем. В нашей лаборатории эти нервные клетки мозга мы назвали «нейронами трех времен».
Некоторые нейроны… формируют процессы… качества результата действия, который будет получен в будущем… Неужели на таких туманных и неопределенных основаниях можно строить стратегию поиска таинственной надсистемы? Странное в этом подходе то, что прежде чем говорить о возможностях какой-то выделенной системы имеет смысл определить ее свойства. Почему бы не попытаться гипотетически вскрыть этот черный ящик и посмотреть, что у него внутри - и только потом рассуждать, как и почему он функционирует именно так, как наблюдается. Например, если проанализировать рассуждения П. К. Анохина, приведенные в предыдущем цитируемом абзаце:
Все эти вопросы нужно рассмотреть прежде, чем рассуждать о способности системы к каким то эффектам, например предсказанию потому, что эти эффекты очевидно вытекают из озвученных свойств. Это ограничит фантазирование и поможет понять природу эффекта. Странно, что П. К. Анохин этого не сделал, хотя это очевидно просится сделать в первую очередь. В итоге это спровоцировало фантазии о наличии некой надсистемы и соответственно невозможности программной реализации искусственного живого существа, пока не будет создан например квантовый компьютер или что-то подобное заумное.
Предложенный в 1950 году тест Тьюринга впервые был уверенно пройден в 2001, и далее многократно подтвержден. В данный момент есть несколько вариантов
Интеллект – база моторных и ментальных автоматизмов высокой степени уверенности, и потому выполняемых без осмысления. Формируется при помощи интеллектуальных функций, выдающих вариант решения, чтобы затем использовать его как пробный, при прогнозировании последствий предполагаемых действий, через субъективную оценку «станет Лучше» или «станет Хуже». Успешно выполненный пробный вариант действий добавляется в базу автоматизмов.
Разум – способность использовать механизмы творчества.
Нейросеть можно назвать реализацией искусственного интеллекта, где вместо субъективной оценки правильности решения самой нейросети, используется субъективная оценка оператора. Он неотъемлемая часть такой интеллектуальной системы, без которой она не способна обучаться в стадии формирования своих интеллектуальных навыков.
А вот механизмы творчества нейросети принципиально недоступны по той же причине, почему ученику, обучившемуся нотной грамоте и игре на музыкальном инструменте не доступна импровизация кроме тех приемов, которым его научили. Необходима внутренняя самооценка, самоощущения правильности/неправильности, иначе получится не творчество, а ремесло. При этом принципиально не важно, каким образом будет получен новый вариант: подсмотрен у других, или сгенерен случайно. Важно, как он переварится внутри, как субъективно оценится, трансформируется, сопоставится с прежним опытом.
В итоге получается: одни не видят разницы между ИИ и ИР, и потому не увидят ИР, когда он появится, для них это будет просто очередная версия нейросети. Другие видят, понимают – но безразличны потому, что это для их работы, бизнеса не имеет никакого значения. Они тоже не увидят ИР, точнее не обратят на него особого внимания, что по сути равноценно. Третьи, понимая ИР как систему способную самостоятельно ставить себе субъективные цели, зачем-то вводят непонятные сложности с их определением, которые лишь напускают тумана и откладывают практическую реализацию на отдаленную перспективу. В этом случае любые попытки продемонстрировать практическую схему реализации прототипа натолкнутся на стену неприятия: это невозможно потому, что невозможно на современном техническом уровне.
Иногда варианты такого подхода выглядят даже забавно. Например, на био-форуме меня пытались убедить, что одного оператора недостаточно для представления в его лице всего внешнего мира Beast, нужно больше стимулов. Например, прицепиться к сводке Яндекс-Погоды, и пусть они являются множеством не хаотичных раздражителей, провоцирующих гомеостаз Beast на реакции. Но все попытки уточнить, сколько конкретно нужно показателей сводки, или например, сколько и каких нужно вывесить датчиков в окно, считывающих температуру, влажность, силу ветра и т. п. – чтобы гомеостаз Beast стал «настоящим», остались без ответа, сведя по сути обсуждение к тому, сколько орехов считается кучей.
Несмотря на безуспешность попыток продемонстрировать пример практической реализации прототипа искусственного живого существа, опыт такого массового обсуждения оказался полезен в том смысле, что показал текущую ситуацию с восприятием проблемы создания ИР: экономически не выгодно, практически не целесообразно. И это если не касаться общих проблем академической науки.
Вот причины неприятия: Идиоты и элиты (закон 95%)
Обнаружен организм с крупнейшим геномом Новокаледонский вид вилочного папоротника Tmesipteris oblanceolata, произрастающий в Новой Каледонии, имеет геном размером 160,45 гигапары, что более чем в 50 раз превышает размер генома человека. | Тематическая статья: Тема осмысления |
Рецензия: Рецензия на статью | Топик ТК: Главное преимущество модели Beast |
| ||||||||||||