29 марта 2024, пятница, 08:15
TelegramVK.comTwitterYouTubeЯндекс.ДзенОдноклассники

НОВОСТИ

СТАТЬИ

PRO SCIENCE

МЕДЛЕННОЕ ЧТЕНИЕ

ЛЕКЦИИ

АВТОРЫ

19 апреля 2011, 10:18

Искусственный интеллект

 Мы публикуем стенограмму передачи «Наука 2.0» – совместного проекта информационно-аналитического канала «Полит.ру» и радиостанции «Вести FM». Гость передачи – кандидат физико-математических наук, научный сотрудник Института прикладной математики им. М.В.Келдыша РАН, старший научный сотрудник НИИ Нормальной физиологии им П.К. Анохина РАМН, руководитель Лаборатории нейроинтеллекта и нейроморфных систем НБИК-Центра (РНЦ «Курчатовский институт») Михаил Бурцев. Услышать нас можно каждую субботу после 23:00 на волне 97,6 FM.

Анатолий Кузичев: Итак, в эфире совместный проект радиостанции «Вести FM» и портала «Полит.ру». Председатель редакционного совета «Полит.ру» Дмитрий Ицкович, Борис Долин и я, Анатолий Кузичев, от радиостанции «Вести FM». Наш гость сегодня – Михаил Бурцев, кандидат физико-математических наук, сотрудник Института прикладной математики имени Келдыша РАН, старший научный сотрудник НИИ нормальной физиологии имени Анохина РАМН.

Борис Долгин: Еще есть должность в Курчатовском институте, да?

Михаил Бурцев: Да, руководитель лаборатории нейроинтеллекта и нейроморфных систем Курчатовского НБИК Центра

Дмитрий Ицкович: Молодой симпатичней человек и так много успевает

А.К.: Подозрительно молодой, но мы проверили документы, и это действительно Михаил Бурцев. Сегодня мы будем говорить об актуальных проблемах моделирования деятельности мозга. Моделирование деятельности - это и есть, насколько я понимаю, искусственный интеллект.

Б.Д.: И да, и нет.

А.К.: Впрочем, можно, наверное, создать искусственный интеллект без моделирования деятельности человеческого мозга, по каким-то другим алгоритмам. Или нет?

М.Б.: Я думаю, что такое возможно. Другое дело, что большинство исследователей придерживается той точки зрения, что проще подсмотреть, что происходит в естественном интеллекте, и уже используя эти принципы понять, как строить искусственный.

Б.Д.: А проще ли? Когда мы говорили об эволюции, Кирилл Еськов высказывался о том, насколько неэффективно иногда выбранное решение, насколько много отбрасывается лишнего материала. Понятно, что как и в любой другой естественной системе. Может быть создать сразу более оптимальное инженерное решение? Более строго, более четко

М.Б.: Конечно, если такое возможно, такое нужно делать. Другое дело, в той ситуации, когда мы очень смутно себе представляем, как и что нам делать. Проще понять, как что сделано, потом понять в чем проблема реальных биологических систем, почему они неэффективны, и это устранить.

Д.И.: Ой, как все просто. Взять неэффективные биологические системы и эту неэффективность устранить.

М.Б.: Конечно, сначала надо понять, как они работают. Тогда, может быть, нам удастся понять, в чем они неэффективны.

А.К.: И на каком мы этапе в этом смысле?

М.Б.: Мы же не знаем, почему они не эффективны. Мы находимся на очень промежуточном этапе. Потому что, с одной стороны, мы очень много понимаем о каких-то молекулярных процессах, которые протекают в живых системах - бурный расцвет молекулярной биологии. Мы видим, как расшифровываются и рисуются огромные схемы молекулярных путей внутри клеток, как различные биологические молекулы друг с другом взаимодействуют, к чему это приводит с точки зрения изменения поведения клетки. С другой стороны, у нас есть замечательный пример. Это почвенная нематода – такие прозрачные червяки, длиной всего 1 миллиметр. Можно рыбу ловить, но крючок маленький понадобится.

А.К.: Да и рыба не большая получится, прямо скажем.

М.Б.: У них буквально несколько сотен клеток всего и несколько сотен нейронов. Про все эти клетки известно, как они работают, как они друг с другом связаны. Они каждый раз примерно одинаково связаны, более того, прослежено развитие этой нематоды, как она из одной клетки делится, все стадии. Под микроскопом кино нарисовано, и уже лет 10 существует проект, чтобы смоделировать, как нематода учится, обучается…

Д.И.: …и не получается.

М.Б.: Нет, не получается.

Б.Д.: Но ведь есть направление искусственного интеллекта, которое вполне успешно развивается, не пытаясь непосредственно моделировать то, как человек работает – распознавание образов.

А.К.: Нет, тогда нужно говорить о том, что такое интеллект.

М.Б.: И это, наверное, самая большая проблема. Очевидно, что есть некоторые задачи, которые от человека, когда он их в первый раз решал, требовали интеллекта. Поэтому сейчас мы эти задачи называем интеллектуальными. Но это задачи, которые в природе больше никем не решаются, и мы их решили не так, как думает человек, а так, как нам было удобно. При помощи некоторого формального языка, математики и, конечно, решение этих задач сегодня широко развито, используется во многих местах и очень сильно помогает.

А.К.: О каких задачах речь?

М.Б.: О том же самом распознавании образов, поиске по картинкам.

Д.И.: Стоп-стоп-стоп! Человек решал задачу распознавания образов как человек, как биологическое существо, отличное от всех других биологических особей?

М.Б.: Если мы строго будем с этим разбираться, то можно сказать, что человек решает задачу распознавания образов как биологическое существо, как организм. В течение жизни распознавая их как субъект, но с другой стороны стоит задача научить компьютер разбивать картинки, например на классы…

Б.Д.: Или звуковые образы, потому что образы могут быть разные.

М.Б.: Это могут быть паттерны данных, какие-нибудь биржевые котировки или что угодно. Разбивать каким-то осмысленным способом, то есть выделять те объекты, которые похожи друг на друга. Это распознавание образов при помощи математики, при помощи каких-то статистических методов.

Б.Д.: И результатами этих исследований многие из нас на практике пользуются: от звукового ввода команд через распознавание образов при сканировании. Это вполне универсальная вещь, которая вошла в быт

М.Б.: Да, это те примеры, которые мы сегодня не замечаем. Мы сканируем, распознаем текст или говорим телефону, он запоминает, как ему сказали, и мы можем набирать номера, просто произнося их.

Д.И.: Я пытаюсь понять. Наверняка у вас висят на стене, как во всех офисах, всякие смешные штуки: «Если начальник не прав, читай пункт первый», а у вас, наверное, висит на столом: «Интеллект – это..». Я так и не понял, кроме распознавания образов что это еще такое?

М.Б.: К сожалению, не висит.

Д.И.: Не висит? Может, сформулируем и повесим?

М.Б.: Это очень сложная проблема. Как вы знаете, это глубокий философский вопрос: что такое интеллект.

Д.И.: Если вы его пытаетесь воспроизвести, то примерно представляете.

М.Б.: Да, у нас есть некоторое такое неформальное представление – это способность решать задачи. То есть если какое-то существо или какая-то система перенесет задачи, которые она раньше не решала.

Д.И.: Но эволюция тоже решает задачи. Эволюция - это интеллект?

М.Б.: Здесь нужно ограничить, сказать, что эволюция решает задачи на популяционном уровне, а интеллект - это решение задач на индивидуальном уровне.

Б.Д.: Кроме того, то, что эволюция решает задачи, - это наше представление как субъекта, наблюдающего за.

Д.И.:. Любых задач?

М.Б.: Любых задач, если смог решить.

Б.Д.: Наверное, любых задач, сводящихся к простым алгоритмам. Потому что решить задачу 5+7 научились делать еще арифмометры

Д.И.: Это интеллектуальная задача

М.Б.: Тут нужно сформулировать и понять, что такое задача. Это не задача, в смысле школьного учебника, где мне дали правило и заставили по этим правилам делать, дедуктивно выводить ответ.

Д.И.: Волк хочет есть – это задача найти еду.

М.Б.: Да, у него есть какой-то набор правил, он их использует. У волка есть набор правил, как искать еду, он пошел искать, увидел следы, пришел. Н решить он ее не смог, интеллектуальность начинается в тот момент, когда те правила, которые нам дали, не позволили нам найти ответ. В примере с правилом 5+5 первоклассник, которого посадили делать 5+5 на компьютере, вроде использует те правила, которые есть, в тесте набирает 5+5= то-то, а тест ему говорит «неправильно». И он должен понять, то ли задача была сформулирована каким-то образом и он должен свои навыки использовать по-другому, то ли компьютер сломался. И вот здесь начинается обучение.

Д.И.: Сидит первоклассник и говорит: «То ли сошел с ума, то ли еще что».

А.К.: Получается сытый волк, все-таки добравшийся до пищи, - это и есть интеллектуальный волк.

Б.Д.: Он решил задачу.

М.Б.: Если он при этом он воспользовался чем-то новым, чем раньше.

Д.И.: Наверняка воспользовался. А если он повторил старый алгоритм, это все равно было интеллектуальным алгоритмом?

М.Б.: Самого проявление обучения интеллектуальности в этот момент не было, то есть он умный, да, но мы не знаем, может, от рождения таким был.

А.К.: То есть это еще не интеллект.

М.Б.: В моем понимании интеллект это способность решать задачи.

Б.Д.: А о повторяющем фразу мы ничего не можем сказать о его интеллекте.

М.Б.: Да, но если он эту фразу говорит так, что ему от этого какая-то оказывается польза, и он сам понимает, как эту фразу сказать, здесь интеллект присутствует.

Б.Д.: Или комбинирует их так, чтобы подходить к некоторой ситуации.

А.К.: Если уж мы взяли волка в качестве примера. Волк очень часто решает задачи, которые до этого в жизни перед ним не стояли, и он вынужден ориентироваться очень быстро, мгновенно принимать решения, порой совершенно парадоксальные.

Б.Д.: О проблемах принятия решения хотелось бы поговорить подробнее.

А.К.: продолжаем разговор. Сегодня у нас в гостях Михаил Бурцев, кандидат физико-математических наук, научный сотрудник Института прикладной математики имени Келдыша и старший научный сотрудник НИИ нормальной физиологии имени Анохина РАМН.

Б.Д.: В свое время в теории принятия решений выделили два способа: алгоритмы и эвристики. В какой степени можно говорить о том, что интеллект начинается там, где речь идет об эвристиках и нельзя там, где речь идет об алгоритмах? Алгоритм предполагает прямое следование по правилам: однозначное, строгое, последовательное. Эвристика предполагает вероятностный процесс выбора стратегии, который нельзя свести к четкой последовательности правил.

М.Б.: Мне кажется, должно быть сочетание этих двух подходов в том смысле, что пока ничего не мешает, то нам не нужны никакие вероятности, нам нужно делать, как мы знаем, здесь мы используем алгоритмы. Но в тот момент, когда у нас вдруг случилось страшное, мы должны использовать эвристику, чтобы понять, какой же нам новый способ, новый алгоритм выбрать, скомбинировать и попробовать. Здесь нам очевидно нужен наш опыт, наши представления о том, какие наши действия раньше были успешными в данной ситуации, а какие не были успешными.

Б.Д.: Да, конечно. Какие направления искусственного интеллекта оказались в тупике к настоящему моменту, а какие наоборот, выглядят перспективными, живыми, развивающимися?

М.Б.: Это сложный вопрос, потому что никто ведь не знает, откуда что-то может выстрелить. Но история развития примерно такая: есть две таких заматеревших области, точнее сказать, одна огромная: это символьный искусственный интеллект и все что с ним связано. И когнитивные системы, и моделирование рассуждения психики человека и так далее. Есть техническая область внутри него - это алгоритм машинного обучения, к которому сводится алгоритм распознавания образов. Другая часть этого направления - искусственно-нейронные сети. Все они существуют достаточно давно, но более-менее вышли на какое-то плато с точки зрения роста их эффективности. Лет 10-15 назад появилось новое течение, которое стало пытаться смоделировать поведение животных, которое получило название либо поведенческой роботики, либо анимат. Это сочетание двух слов (animal и automat) и здесь очень широко стали применяться эволюционные методы. Целью было не сразу понять человека, а давайте сначала разберемся с волком или с мышью.

Д.И.: Или с этим червячком.

М.Б.: Или с этим червячком – нематодой. Можно сказать, что был всплеск интереса. Сегодня это более-менее устаканилось, и были получены интересные результаты. Можно сказать, что появилось целое направление в искусственном интеллекте, но тоже более-менее вышло на какую-то полочку.

А.К.: Подождите. Еще раз. Вы сказали: здоровенная, заматеревшая область нейронов…

М.Б.: Да, это то, что классический искусственный интеллект.

А.К.: Что еще? Нейронные сети?

М.Б.: Нейронные сети и так называемый аниматный подход и поведенческая роботика.

Б.Д.: А вы сами ближе к какому подходу?

М.Б.: Я ближе к аниматной и поведенческой роботике, потому что есть еще примыкающие к этому области, под названием искусственная жизнь. Там исследуют эволюцию в популяциях каких-то особей, и эти особи еще не такие умные, как в поведенческой роботике, потому что мы не стараемся засунуть в них очень много навыков, Зато они эволюционируют точно так же, как это часто бывает в эволюционной работе.

А.К.: Эти особи из чего сделаны? Это программы?

М.Б.: Да, обычно это программы, но, например, наш коллега из Германии занимается тем, что делает эволюционные алгоритмы на маленьких роботах. У них есть популяция роботов, состоящая из нескольких десятков роботов размером буквально сантиметр на сантиметр, и их программы друг с другом общаются, у них может происходить эволюция. Они размножаются, но размножаются не физически, а есть алгоритм их поведения, и они пересылают из головы одного робота в голову другого робота программу, то есть акт размножения заключается в том, что мозг одного робота убивается и заменяется мозгом другого робота, который был более успешен. И они показали, что эти роботы могут решать примитивные задачи при помощи такого алгоритма: типа найти путь в лабиринте, который ведет из начального отсека в отсек, где находится виртуальный сыр, который эти роботы должны съесть.

Д.И.: Какая-то путаница. Роботы, охотящиеся за сыром.

Б.Д.: Виртуально.

Д.И.: Виртуально. Чистый «Рембо»: забегает толпа роботов в лабиринт и все дохнут, потихонечку передавая мозг друг другу.

Б.Д.: А не является ли здесь эволюционный путь опасно долгим, не вынуждены ли мы будем тогда ждать примерно столько, сколько эволюция ждала до нас?

М.Б.: Это правильный, хороший вопрос. Мы надеемся, что можно моделировать не всю эволюцию, а какие-то ключевые места, которые нам хотелось бы. Сосредоточивать эволюцию в этих местах и таким образом сгладить, иначе это было бы невозможно.

А.К.: А как выглядит ваша работа? Приходит Михаил Бурцев на работу и….

Д.И.: Включает искусственный интеллект…

М.Б.: Включает компьютер и начинает программировать.

Д.И.: Читать новости.

М.Б.: Новости читает, да. Какие новые аниматы появились и так далее. Начинает программировать, писать программу, запускает эволюцию. На самом деле начинает не с того, что пишет программы, а с того, что он включает компьютер, подсоединяется к суперкомпьютеру и смотрит, что у него там насчиталось. Загружает данные эволюции и смотрит: так, кто у нас там наэволюционировал сегодня?

Б.Д.: Суперкомпьютер - это, наверное, в Курчатнике.

М.Б.: Да, в Курчатнике это может быть.

А.К.: Или в университете?

М.Б.: Суперкомпьютер там есть, но мы им не пользуемся.

А.К.: Это интересно. Приходит бог, включает компьютер и начинает за теми, кого он породил, наблюдать.

М.Б.: Да, прямо так. Их очень любишь, заботишься о них.

Д.И.: Вы перечислили три направления, некоторые из которых уже стагнируют, а какие-то бурно развиваются. Чем они отличаются друг от друга, почему не могут быть объединены в одну общую задачу, в одну общую систему?

М.Б.: Они различаются следующим. Классический искусственный интеллект пытается рассматривать высокие уровни организации каких-нибудь интеллектуальных процессов. То есть это у человека могут быть рассуждения или приключения каких-нибудь адаптивных алгоритмов, программ и так далее. Нейронные сети пытаются все делать на уровне нейронов, они пытаются из нейронов, как элементов, которые лежат в основе интеллектуальности животных, собрать какую-то систему, которая будет обладать интеллектуальным поведением. Аниматный подход комбинирует, пытается совместить нейроуровень с когнитивным, то есть организовать из этих нейрончиков какие-то структуры, которые будут решать поведенческие задачи и возможно еще все это проэволюционировать. Это основные различия. Кстати, я подумал, что перспективным направлением, которое может быть, которое только что зародилось и которым мы занимаемся, может стать попытка включения живых нейронов в аниматор. Есть такие гибридные системы, где у нас есть робот. Это может быть виртуальный робот, а может быть реальный робот в каком-то лабиринте. Мы берем нейронную сеть, у нас не модельная нейронная сеть управляет этим аниматом, а реальный нейрон.

Д.И.: Как это? Маленький червячок сидит в голове роботика?

М.Б.: Нет, все гораздо более масштабно. У нас есть некоторая чашка, в которую мы высаживаем культуру нейронов. Там клетки растут.

А.К.: А откуда вы изначально берете нейроны?

М.Б.: Из мозга мышей. Мы высаживаем эти нейрончики, они там растут, у них создаются все условия, среда, чтобы они думали, что они внутри мозга. И мы можем этим нейрончикам передавать какую-то информацию из окружающей среды. А с другой стороны регистрировать их активность, чтобы интерпретировать ее как некоторое действие, которое мозг совершает во внешней среде. Взаимодействие со средой происходит через тело нашего робота, который с сенсоров получает информацию со среды, а на его актуатор (например, колесики) передается действие из этих нейрончиков. Сложная задача заключается в том, что мы должны заставить эту нейронную сеть обучиться и решать какую-то задачу при помощи этого робота в какой-то среде, про которую она ничего не знает.

Д.И.: А задача все тоже самая – найти сыр? Пока я только одно слышал.

М.Б.: Да, проверенная задача.

А.К.: Если у робота мозг мыши, то сыр совершенно оправдан.

Б.Д.: Другими словами, создается такой внешний, вынесенный мозг.

М.Б.: Он может находиться в другом помещении, а может и рядом находиться. Мы, конечно, хотели бы его засунуть в робота, но здесь проблема с поддержанием условий. Такие опыты тоже делаются. Например, берутся улитки, сажаются на роботов, в улитку сажаются электроды.

Б.Д.: Мы помним фантастические произведения, где примерно такие мотивы обыгрываются.

А.К.: Вы сейчас про фантастические произведения рассказываете?

Б.Д.: Нет.

А.К.: Или где-то у вас физически есть улитки, в них воткнуты электроды. И эта улитка сидит и думает, почему мне хочется сыра, господи, я же улитка.

М.Б.: Морковки дайте.

А.К.: Напомню, что мы беседуем с Михаилом Бурцевым, обсуждаем актуальные проблемы моделирования деятельности мозга и вообще перспективы создания искусственного интеллекта.

Собственно вопрос, а как вы поймете, что вы его достигли, что вы его сделали, что получили? Эврика, вот он – искусственный интеллект!

Б.Д.: Это тот же тест Тьюринга?

М.Б.: Для нас это тест Тьюринга на животных. Как вы поняли, проблема определения интеллекта очень сложна и люди уже лет 60-70 люди ломают голову над тем, как же его определить. Одна из самых ранних попыток, которая оказалась одной из наиболее удачных, как определить искусственный интеллект, принадлежит Алану Тьюрингу, одному из изобретателей современных компьютеров. Он предложил операциональное определение искусственного интеллекта. Есть такой тест Тьюринга, что если мы посадим в комнату человека, и этот человек по телетайпу будет общаться с какими-то двумя удаленными местами… Сейчас это может быть чат, в котором человек общается, и на одной стороне от человека будет находиться робот, а на другой стороне другой человек. Кто с какой стороны – он не знает. Этот человек может задавать любые вопросы, которые хочет, и в тот момент, когда никто не сможет отличить машину от человека на другом конце провода, мы сможем сказать, что машина обладает искусственным интеллектом.

А.К.: У человека, который будет беседовать с машиной, не зная, машина это или человек, будет задача выявить? Он будет понимать, что он проходит тест Тьюринга? Вернее не он, а машина.

Б.Д.: Это неважно.

А.К.: Нет, это важно.

М.Б.: С одной стороны, это неважно, но с другой стороны знание этого не должно никаким образом влиять на тест. Даже если самый злобный человек, пытающийся поставить самые каверзные вопросы, не сможет отличить, тогда тест Тьюринга пройден.

А.К.: Такие эксперименты уже были?

М.Б.: Да, последние несколько лет даже ежегодно проводятся соревнования, где люди свои программы выставляют, а эксперты сидят и мучают эти программы.

Д.И.: Так эксперты же знают, что они программы мучают.

А.К.: Они делают вид, что они не знают.

Д.И.: Они делают вид, что не знают, как этот тест сделать.

А.К.: Удивительная область, правда, очень забавно.

М.Б.: Под «они мучают», я имею в виду, что они сравнивают. Я точных правил не знаю.

Б.Д.: Сравнивают с живыми людьми.

Д.И.: А как же они с живыми людьми сравнивают? Люди же тоже разные, одни поумнее, другие поглупее, не понятно как то получается. Я эксперт, меня сажают в темную комнату, дают мне, например, азбуку Морзе. Я могу только SOS отбивать, с той стороны мне какие-то сигналы идут, и я должен понимать, сигналы мне дает живой человек или машина.

Б.Д.: Нет, речь, конечно, идет о комфортных условиях коммуникации.

Д.И.: Хорошо, комфортные. Я смотрю, передо мной сидит машина и угадай, машина это или человек. Нет, я все-таки не понимаю.

А.К.: Странноватая история.

Б.Д.: Нет, все понятно.

Д.И.: Ничего не понятно. Представь себе, я пытаюсь проверить с той стороны человека, который делает вид, что он машина и говорит: « Я машина, я машина».

- Ты точно машина?

- Я машина.

- Ты точно машина?

-Я машина.

М.Б.: Это все нормально, это вписывается в текст.

Д.И.: Ну и что? Получается, что человек не прошел тест или что?

А.К.: Значит, он не искусственный интеллект. Не прошел тест.

А.К.: С другой стороны, смотрите, я сижу в своей комнате, у меня компьютер, и я говорю:

- Кто был чемпионом страны по футболу в 1984 году?

И он через паузу отвечает:

- Павел Федорович Садырин - самый лучший тренер в мире.

И я понимаю, что он помнит, что «Зенит», и он помнит кричалочку, которую тогда придумали болельщики, и я понимаю, что он человек, да еще какой.

Б.Д.: Из этого ничего следовать не будет.

Д.И.: Почему? Будет следовать.

Б.Д.: Должен быть гораздо более сложно устроенный диалог, который не будет требовать исключительно только знаний.

М.Б.: Я думаю, там люди тренированные.

А.К.: Именно об этом я спрашиваю. То есть он должен сразу поставить своего мнимого собеседника, то ли человека, то ли компьютер в такие условия, чтобы проверить его. Поэтому принципиально важный момент, что ты должен его именно тестировать, а не просто беседовать.

М.Б.: Я, к сожалению, подробно не слежу за этими соревнованиями. Я знаю, что пока еще никому не удалось написать такую программу и если почитать, наверняка у них есть какие-то каверзные вопросы, которые всегда работают.

Д.И.: Так я и говорю, ты должен его тестировать, а не просто беседовать. Тестировать осмысленно, жестко и напряженно.

М.Б.: Один вариант может быть – юмор. Понимает он юмор или нет, потому что понимание юмора очень завязано на контекст.

Б.Д.: На самом деле, с этим тестом время от времени сталкиваются люди, когда звонят кому-то, а на той стороне автоответчик со специально записанными паузами. Автоответчик, который должен сымитировать своего хозяина и разобраться, действительно ли  это хозяин отвечает или автоответчик так записан, - это тоже своего рода тест Тьюринга.

М.Б.: Да.

Б.Д.: А как у нас с моделированием в другом смысле: не с моделированием как созданием аналога, а с моделированием как созданием математической модели? В какой степени можно сказать, что мы приближаемся к пониманию того, как  устроено принятие решений человеком? Не в смысле создания, а в смысле понимания или прогнозирования, например?

М.Б.: Я не являюсь специалистом в области принятия решений человеком. Но судя по тому, что я знаю и слышал из литературы, связанное, например, с рассмотрением принятия решений большими коллективами людей, видна была эволюция. Сначала всех людей-игроков рассматривали как рациональных агентов, которые принимают только рациональные решения, а последние лет десять фаза сдвинулась в сторону того, что у каждого из этих игроков…

Б.Д.: …есть отклонения от рациональности.

М.Б.: И самое важное теперь, если эти отклонения от рациональности существуют, то они не носят случайного характера, они зависят от конкретной ситуации, от конкретной группы людей, которая в этой ситуации принимает решения. Проблема теперь перенеслась в другую плоскость, где эти вещи, которые искажают рациональность? В чем лежат эти причины? Понятно, что здесь может быть несколько факторов, таких как культура, предыдущий опыт этого человека и так далее и тому подобное.

Д.И.: Любая индивидуализация отклоняется от рациональности.

М.Б.: Да, то есть она рациональна внутри себя, но может быть не рациональной с точки зрения какого-то внешнего наблюдателя.

Д.И.: То есть у женщины одни мотивы, у мужчины – другие.

М.Б.: Очень много сейчас делают попыток смоделировать кооперативное поведение, потому что оно связано с принятием решений.

Д.И.: Все индивидуально, насколько я понимаю, потому что индивидуальное принятие решений, кажется, тоже строится по тому же принципу, когда внутри индивидуума есть совокупность разных интересов, которые он внутри себя согласовывает.

М.Б.: Можно это и так рассматривать, но очевидно, что разные люди принимают разные решения и в кооперации это очень сильно проявляется. В последние годы стали проводиться исследования по разным культурам, кто как кооперируется, и они выявляют какие-то просто фантастические поразительные вещи. Например, такая кооперативная игра, которую исследовал мой знакомый Бенедикт Херман, который  участвовал в работе над этим проектом. В разных культурах исследовалась такая игра: в первом раунде три игрока, им выдается какая-то сумма денег, они могут вложить в общий котел, инвестировать в общее дело, например. Каждый из них выбирает, сколько он хочет инвестировать произвольным образом, потом этот котел удваивается и все, что там получилось, делится на три равных части и выдается обратно. Это первый тест кооперативности. Оказывается, что разные культуры будут вносить разную долю на первоначальном этапе.

Д.И.: Самые удивительные результаты показали исследования среди цыганского табора – все цыгане разбежались, причем у каждого были деньги оставшихся двоих. Это никак не укладывается ни в одну математическую модель.

М.Б.: Там очень интересные результаты. Несколько лет назад даже у нас в новостях они очень активно обсуждались. Оказалось, что есть какая гипотеза: чтобы кооперация оказалась стабильной, должно быть наказание. Если мы много раз вступаем повторно в какие-то взаимодействия, то мы можем оценить поведение человека. Если на предыдущем этапе кто-то вел себя плохо, то на данном этапе мы можем его наказать. И оказалось, что в эту игру можно ввести второй раунд, когда каждый игрок после первого раунда не видит, с кем он играет. Ему  выдается список, кто и сколько вложил, и теперь он может так вложить деньги, чтобы наказать кого-то из игроков. Например, я даю рубль для того, чтобы наказать Петю, и у Пети отнимают 10 рублей. Эти правила рассказывают участникам заранее. И мы предполагаем, что в этом случае первоначальный взнос будет выше, потому что люди будут сразу в голове моделировать ситуацию, что их могут наказать, поэтому они будут кооперироваться. Поразительный результат оказался следующим: все страны разделились на две категории. В первой категории оказались те страны, у которых, когда был введен этот механизм наказания, люди наказывали тех, кто вкладывал меньше всего денег в общий котел на первом этапе, и кооперация при повторной игре она все расставила.

А.К.: Как мы условно называем эти страны?

Д.И.: Кооперативные

М.Б.: Кооперативные. А вторые страны обнаружили такое поведение, которое вообще очень сложно интерпретировать. Оно заключалось в том, что после того, как проходил первый этап и все внесли свои средства, тот, кто больше всех денег в этот общий котел положил, получал наибольшее количество тумаков.

А.К.: Давайте, я угадаю, что это за страна была.

Д.И.: Правда, а какая страна?

А.К.: Назовите хотя бы одну.

М.Б.: Например, Египет, но есть еще другая страна, и вы все ее хорошо знаете. В этой стране было то же самое.

А.К.: Россия?

М.Б.: Да.

Д.И.: То есть мы такой антикооперативные.

М.Б.: Я не знаю, как это объяснить.

А.К.: На самом деле все это воспето в анекдотах и в народном фольклоре, так что вполне понятная история. У нас осталось 30 секунд, а мы самый главный вопрос забыли задать. Поэтому я за его задаю, а вы постарайтесь очень быстро ответить.

Д.И.: Что такое интеллект?

А.К.: Нет, а зачем вы все это делаете?

М.Б.: Во-первых, чтобы понять, что такое человек, понять природу того, почему он так думает.

Б.Д.: А во-вторых, стать творцом?

М.Б.: Стать творцом и создать для нас более умную среду, принести пользу человечеству.

А.К.: Понятно, человечество тоже прошло тест Тьюринга, потому что создавать нечто, что гарантировано тебя уничтожит или вытеснит, это, конечно, удивительно нерациональное поведение. А значит, мы люди, что стало ясно из этой программы. Спасибо вам большое!

Б.Д.: Спасибо.

М.Б.: Я с этим не согласен, потому что…

Д.И.: Мы гораздо больше, чем люди, которые проходят тесты на кооперативность. У тех почти искусственный интеллект, а у нас настоящий.

А.К.: Давайте, я с гордостью назову имена этих самых людей: Борис Долгин, Дмитрий Ицкович, Анатолий Кузичев и Михаил Бурцев. Спасибо.

Редакция

Электронная почта: polit@polit.ru
VK.com Twitter Telegram YouTube Яндекс.Дзен Одноклассники
Свидетельство о регистрации средства массовой информации
Эл. № 77-8425 от 1 декабря 2003 года. Выдано министерством
Российской Федерации по делам печати, телерадиовещания и
средств массовой информации. Выходит с 21 февраля 1998 года.
При любом использовании материалов веб-сайта ссылка на Полит.ру обязательна.
При перепечатке в Интернете обязательна гиперссылка polit.ru.
Все права защищены и охраняются законом.
© Полит.ру, 1998–2024.