17 января 2013, четверг, 18:55
НОВОСТИ
СТАТЬИ
АВТОРЫ
ЛЕКЦИИ
PRO SCIENCE
16 декабря 2012, 21:36

Стоит ли бояться искусственного интеллекта?

В следующем году на базе Кембриджского университета будет создан "Центр изучения глобальных рисков", одной из целей которого является определение принципов разработки "безопасного" искусственного интеллекта. Однако насколько актуальны опасения ученых из Кембриджа?

Искусственный интеллект
Искусственный интеллект

Прыжок в будущее

В программном заявлении основатели центра утверждают: "Многие ученые обеспокоены тем, что в результате развития человеческих технологий скоро возникнут новые риски, ставящие под вопрос существование нашего вида в целом". В качестве подобных опасностей в центре выделяют искусственный интеллект, климатические изменения, биотехнологии и нанотехнологии.

Глава создаваемого центра профессор философии Хью Прайс опубликовал в августе 2012 года статью "ИИ: сможем ли мы удержать его в коробке?", в которой призвал серьезно рассмотреть возможные угрозы: "Мы думаем, что в качестве первого правильного шага стоило бы прекратить относиться к искусственному интеллекту как к предмету научной фантастики и начать думать о нем как о части реальности, с которой мы или наши потомки могут рано или поздно столкнуться". Философ считает, что как только мы поставим такую проблему, то будет необходимо инициировать серьезные исследования того, как сделать разработку интеллектуальных машин наиболее безопасной с точки зрения будущего человечества. 

Основной причиной опасности «ультра-умных» машин создатели проекта видят принципиальное отличие их предполагаемого интеллекта от человеческого. Все ценности – такие, как «любовь, счастье и даже выживание», важны для нас, потому что у нас есть определенная эволюционная история – нет ни одной причины полагать, что машины будут разделять их с нами. По словам Прайса, машины, возможно, будут просто безразличны к нам, что повлечет за собой катастрофические последствия. 

Машины, возможно, будут просто безразличны к нам, что повлечет за собой катастрофические последствия. 

Скорое создание интеллектуальных машин, которые будут "умнее" человека, предрекают, начиная с середины XX века. Аллен Ньюэлл и Герберт Саймон в 50-е, Марвин Минский в 60-70-е, и многие другие в более позднее время предсказывали решение проблемы разработки ИИ в течение 10-20 лет, начиная с момента заявления. Один из наиболее известных на сегодняшний момент футурологов Рэй Курцвейл предсказывает, что к 2029 году компьютер сможет пройти тест Тьюринга, что, по его мнению, будет доказывать у него наличия разума. Курцвейл в 2009 году основал Университет Сингулярности с целью изучении последствий "технологической сингулярности" - момента, когда скорость развития технологий достигнет немыслимых значений.

Безусловно, искусственный интеллект и гипотетические последствия его выхода из-под контроля человека являются одной из любимых тем современной философии. Однако большинство действующих исследователей в этой области на данный момент воздерживаются от каких-либо громких прогнозов о возможности серьезных прорывов в ближайшем будущем - проблемы сегодня скорее заключаются не в необходимых мощностях, а в отсутствии новых подходов.

Комментарии
Новое
Apple facebook Google iPhone IT Twitter Yahoo «Российские космические системы» Александр Кибрик альтернативная энергетика астрономия астрофизика Байконур биология блогосфера венчурный бизнес вирусы вселенная гаджеты генетика геология глобальное потепление гуманитарные науки демография ДНК естественные науки землетрясение изобретения инновации интернет ислам история Камбоджа квантовая физика квантовые технологии компьютерная безопасность космос культура лингвистика Луна Марс марсоход Curiosity МГУ мегагранты медицина Минобрнауки мозг музыка НАСА нейробиология Нобелевская премия норманны органическая химия перевод планетология происхождение человека психофизиология ракета расшифровка генома РВК РКК «Энергия» робототехника Роскосмос Роснано Рособоронэкспорт Российская империя русский язык саги Северный Кавказ сельское хозяйство Сергей Полонский Сколково смартфоны СМИ социальные науки социология Сочи спутники стартапы технологии точные науки транспорт ураган фармакология Федор Успенский физическая антропология финансирование науки химия эволюция эволюция человека экология экономика этология ядерная физика язык

Редакция

Электронная почта: politru.edit@gmail.com
Телефон: +7 (495) 624-5618
Адрес: 101000, Москва, Кривоколенный пер., д. 10, стр. 6а
Регистрация — Эл № 77-8425 от 1 декабря 2003 года.
Выходит с 21 февраля 1998 года.
При любом использовании материалов веб-сайта ссылка на Полит.ру обязательна.
При перепечатке в Интернете обязательна гиперссылка polit.ru.
Все права защищены и охраняются законом.
© Полит.ру, 1998–2012.