Опубликовано в журнале Урал, номер 8, 2017
В 40-е годы XX века Айзек Азимов (1920–1992) написал книгу рассказов «Я — робот». Начало действия книги отнесено к 2057 году — к 75-летию главной героини, робопсихолога Сьюзен Кэлвин. Она родилась в 1982 году. «В двадцать лет Сьюзен Кэлвин присутствовала на том самом занятии семинара по психоматематике, когда доктор Альфред Лэннинг из «Ю. С. Роботс» продемонстрировал первого подвижного робота, обладавшего голосом. Этот большой, неуклюжий, уродливый робот, от которого разило машинным маслом, был предназначен для использования в проектировавшихся рудниках на Меркурии. Но он умел говорить, и говорить разумно».
2002 году я решил отметить это «событие» и написал эссе для Радио «Свобода». Оно называлось «Проблема и решение» и вышло в эфир 7 мая 2002 года1.
В книге Азимова сформулированы 3 закона робототехники. Это законы не технические, а этические. Законы эти «прошивали» прямо в «позитронный мозг» робота, и составлены они были так, чтобы роботы ни при каких обстоятельствах не могли нанести вред человеку. В рассказе «Хоровод» Азимов эти законы сформулировал.
Первый. Робот не может причинить вред человеку или своим бездействием допустить, чтобы человеку был причинен вред.
Второй. Робот должен повиноваться командам человека, если эти команды не противоречат Первому Закону.
Третий. Робот должен заботиться о своей безопасности, поскольку это не противоречит Первому и Второму Законам.
В 2002 году я писал: «Можно себе представить, что тот легендарный семинар проходит прямо сейчас в одной из аудиторий Колумбийского университета. И умненькая девушка Сьюзи аккуратно записывает объяснения в тетрадочку. Насколько это реально? Абсолютно нереально. Азимову казалось, что сделать движущуюся модель полностью человекоподобной намного сложнее, чем научить ее говорить, и говорить разумно. Научить говорить и думать, как человек, легче, чем научить ходить. И не только думать, но и поступать, руководствуясь специально приспособленным для этого случая кантовским категорическим императивом… Азимов был убежден — и эту его убежденность разделяли многие и многие его читатели, что если создавать искусственный разум, то он должен быть в точности антропоморфен. И в первую очередь, он должен быть нравственен. Ведь чем законы робототехники, которые заложены в самые основы позитронного мозга, это не законы совести? “Не убий”, “Жизнь свою за други своя”… Азимов этими законами сформулировал и отправную точку, и конечную цель. Или робот должен быть в главном подобен человеку, или его не должно быть».
С тех пор прошло 15 лет. Самое время вернуться в то далекое прошлое и посмотреть, что же произошло за это время в области искусственного интеллекта, есть ли у нас сегодня роботы с «позитронным мозгом» и вообще, как обстоят дела с этикой в мире искусственного интеллекта (ИИ).
5–7 января 2017 года в Калифорнии недалеко от местечка Монтеррей в Асиломарском конференц-центре (Asilomar Conference Grounds) состоялась представительная научная конференция «Beneficial AI 2017» («Полезность искусственного интеллекта 2017»)2. В работе конференции приняли участие практически все ведущие исследователи и крупнейшие АйТи-компании, которые сегодня занимаются разработками в области ИИ: Google (в первую очередь представители подразделения Google DeepMind); исследовательские центры Facebook, Apple, Amazon; ученые, объединившиеся в клубе Open AI; исследователи из IBM; профессора ведущих университетов. И обсуждали они в этом живописном местечке на скалистом берегу холодного океана именно этические проблемы, которые встают перед человечеством в связи с развитием ИИ.
По результатам конференции были приняты «Asilomar AI Principles» («Асиломарские принципы ИИ»)3.
После конференции эти принципы были вывешены на отдельной странице сайта «Институт “Будущее жизни”» («Future of Life Institute»)4. На этой странице была открыта возможность присоединиться к этим принципам для всех разработчиков, исследователей и предпринимателей, работающих в области ИИ, а также для предпринимателей, ученых и общественных деятелей, которые напрямую не заняты в работах над ИИ, но готовы поддержать Асиломарские принципы. На сегодня (22 июня 2017 г.) на этой странице стоят подписи 1200 специалистов, занятых в работах над ИИ и робототехникой и 2342-х ученых и предпринимателей, прямо с ИИ не связанных. Среди подписавших: Илон Маск, глава компаний Tesla и SpaceX, Стивен Хокинг (который вряд ли нуждается в представлении и который писал об опасности ИИ еще два года назад), Яан Таллинн (сооснователь Skype), Джилл Пратт (CEO исследовательского института Тойоты) и многие, многие другие. Есть среди подписавших малоизвестные случайные имена, но в целом список более чем представительный — в нем практически все ведущие разработчики в области ИИ и робототехники.
Прежде чем мы поговорим о самих принципах (а их оказалось несколько больше, чем у Азимова — Асиломарских принципов ИИ — 23), скажу несколько слов о том, что значит сам факт появления такого Кодекса ИИ (назовем его так).
Хотя этот Кодекс «строителей светлого будущего» не имеет юридической силы, Асиломарские принципы — это результат консенсуса людей, представляющих очень влиятельные и в научном мире, и в предпринимательском сообществе университеты и корпорации. Идти прямо против такого консенсуса кому угодно (даже государству) будет непросто. (Например, у правительства США серьезных специалистов по ИИ, кроме тех, кто подписал Асиломарские принципы, осталось не так много). Так что и без юридического оформления Асиломарские принципы будут оказывать (и уже оказывают) серьезное влияние на развитие ИИ и робототехники. Создатели Кодекса ИИ это понимали и составили 23 пункта максимально обобщенно, чтобы не перегородить дорогу смелым идеям. Но все равно они задали границы, и в некоторых случаях довольно жесткие.
То, что Кодекс ИИ появился именно сейчас, тоже показательно. Даже у человека, не занятого напрямую в работах над ИИ, а только внимательно наблюдающего по научным и научно-популярным публикациям за прогрессом в этой области, остается сильное впечатление.
В начале 2017 года компания IDC опубликовала прогноз развития когнитивных систем и систем искусственного интеллекта на следующие 5 лет5.
Согласно данным компании, в 2016 году мировой рынок этих систем составил 8 миллиардов долларов. Ежегодный рост в ближайшие 5 пять составит 55% и достигнет 47 миллиардов в 2020 году. В 2016 году главными областями, где востребованы системы ИИ, были банки, сфера обеспечения безопасности, инвестирование, розничная торговля и «дискретное» производство (то есть такие отрасли, где производятся штучные товары — автомобили, мебель, игрушки и т.д.). Банки и инвесторов прежде всего беспокоят риски вложений и защита от мошенничества, и они очень рассчитывают на помощь систем ИИ. В финансовом секторе и в розничной торговле создаются огромные массивы данных, и эти данные нужно анализировать — это тоже большое поле деятельности для ИИ. Производство вкладывает деньги в обеспечение качества товаров: ИИ может помочь удержать продукт в установленных регламентом границах. Но самый быстрый рост прогнозируется в здравоохранении, в частности, в диагностике.
IDC назвала 10 главных направлений развития ИИ. Некоторые я перечислю: выдача отчетов на естественном языке6 (на основе «больших данных»); программные платформы глубинного обучения (многослойные нейронные сети); виртуальные агенты (например, Siri компании Apple); разработка аппаратных платформ, специально предназначенных для программ распознавания, например, процессор Google TPU; распознавание речи и обработка аудиозаписей, в частности, поиск по аудиофайлам; анализ, обработка и рецензирование текстов на естественном языке…
Наверное, это все скучные обычные отрасли, и что там происходит, публику волнует слабо. Будь там хоть ИИ, хоть конь с копытом. И между тем деньги в программное и аппаратное обеспечение вкладываются очень серьезные, и ИИ растет и крепнет. И ведь это все даже не завтрашний день. Это все делается прямо сейчас.
Но есть два достижения ИИ, о которых нужно сказать особо. Первое — уже привычное, второе — самое известное. Оба эти достижения связаны с развитием нейронных сетей и глубинного обучения.
Сначала о привычном. Кажется, почти никто из пользователей Facebook не задумывается над тем, как же FB понимает, кто изображен на картинке? Или как Google находит нужную картинку по образцу? Меня эта возможность до сих пор заставляет на секунду остановиться и испытать странное чувство — эти программы понимают, кто перед ними.
Самое известное — это программа AlphaGo7, которая победила самых сильных в мире игроков в го, что еще два года назад казалось неразрешимой задачей. Тогда лучшие компьютерные программы играли в го разве на уровне сильных любителей, а о том, что программа сыграет с сильнейшими и победит, никто даже не думал: ну, может, лет через пять-десять и появятся какие-то варианты. Это был самый оптимистический прогноз.
Оба приложения — это программы распознавания образов. Только в поиске по картинке это и впрямь образ, а вот в AlphaGo образ — это стратегия, которая приводит к победе.
Прежде чем я скажу несколько слов о программе AlphaGo, видимо, нужно коротко объяснить, что же это за игра го — она все-таки не так популярна у нас, как, например, шахматы. В партии го участвуют два игрока, которые по очереди ставят камни на доску 19×19. Один — черные, другой — белые. В отличие от шахмат, все камни одинаковые — нет ни ферзей, ни пешек. Камень можно ставить в любую незанятую клетку на доске. Длится партия в среднем 150 ходов. Го для компьютерной программы на много порядков труднее, чем шахматы, потому что партия длится в три раза дольше и в каждой позиции больше вариантов возможных ходов. Это приводит к тому, что дерево решений, которое ветвится на все возможные позиции после каждого хода и глубже (число ходов в партии) и «ветвистее» (число возможных ходов в каждой позиции). Полный перебор вариантов даже на сегодняшних суперкомпьютерах — невозможен. Шахматы по сравнению с го — это просто какой-то детский сад. Как справиться с такой задачей?
AlphaGo — это многослойная нейронная сеть, или более точно — несколько взаимосвязанных нейронных сетей, причем не все они участвуют в игре, некоторые используются только в процессе обучения. AlphaGo совсем не похожа на компьютер Deep Blue, который 20 лет назад (в 1997 году) победил чемпиона мира по шахматам Гарри Каспарова. Deep Blue имел специализированное «шахматное» аппаратное обеспечение, хранил в памяти целую библиотеку дебютов и партий и был предназначен только для одной задачи — победить чемпиона мира. У AlphaGo начальные знания крайне скромны: правила игры и некоторые вполне элементарные навыки, которым учат новичка. И это все. Побеждать сильнейших программа училась сама. Создатели программы учили ее не играть в го, а учиться играть го. Более того, нейронные сети, которые составляют основу программы, в отличие от Deep Blue, прямо заточенной на шахматы, — универсальны, им, вообще говоря, все равно чему учиться. По мере обучения AlphaGo освоила базу из 160 тысяч партий, сыгранных профессиональными игроками. Анализируя позиции из этих партий, она училась предугадывать ходы соперника и отыскивать (распознавать) победную стратегию. AlphaGo много играла сама с собой (разные нейронные сети обучали друг друга), за время обучения она проанализировала 30 миллионов позиций.
Первый вариант программы играл не на специализированном «железе» (как это было с Deep Blue), а на универсальных центральных и графических процессорах (уже потом был разработан упоминавшийся выше процессор Google TPU, но и он не предназначен только для игры в го, хотя и специализирован для задач распознавания). На то, чтобы пройти весь путь от новичка до победителя сильнейших игроков, потребовалось около пяти месяцев.
9–15 марта 2016 года в Сеуле в матче с Ли Седолем, корейским профессионалом 9 дана (высшего ранга), AlphaGo победила 4:1. Когда одного из разработчиков программы спросили, как она играет, он ответил: «Я не знаю». И он действительно не знает, почему она делает тот или иной ход. Он знает только, каким принципам она следовала в процессе обучения.
Почему Ли Седол выиграл в одной из партий? Он сделал ход, который в подобной позиции никто никогда не делал. Машина выдала себе что-то вроде «Опаньки, что-то пошло не так», глубоко задумалась и «ниасилила», как пишут на Луркморье8. Комментаторы назвали этот ход «божественным», но это эмоции. Видимо, единственный способ конкуренции с ИИ — это творчество радикальное, резкое, рвущее связи и ломающее стереотипы. Причем сегодня в подобной ситуации AlphaGo уже не проиграет — программа знает, как надо действовать, она учится очень быстро — по меркам человека почти мгновенно, — а Ли Седол ее уже научил.
Свой последний матч 23–27 мая 2017 года в китайском городе Вучжен с сильнейшим китайским игроком в го Кэ Цзе AlphaGo выиграла 3:0. Напоследок разработчики AlphaGo сделали игрокам в го подарок — они выложили 50 партий, которые программа сыграла с собой. AlphaGo ушла из большого спорта и больше не будет играть матчи, теперь она будет занимается медицинской диагностикой.
Илон Маск на Всемирном правительственном саммите (WGS 2017) в Дубае (Объединенные Арабские Эмираты) сказал: «Приверженцы считают ИИ благом, а противники — угрозой. Я думаю, правы обе теории. Представьте, что нам предстоит встретиться с инопланетной высокоинтеллектуальной формой жизни через 10 или максимум через 20 лет. Цифровой сверхразум и будет как будто вторжением инопланетной формы жизни… Первый совет — уделять самое пристальное внимание развитию ИИ. Нам нужно очень внимательно следить за тем, как мы внедряем ИИ. Чтобы ученые, увлеченные своей работой, не заходили слишком далеко. Потому что разработчики иногда так погружаются в работу, что забывают контролировать последствия своих действий. Я считаю, что это вопрос общественной безопасности. Правительства должны следить за ИИ и должны убедиться, что он не представляет опасности для населения»9.
А теперь вернемся в Асиломар и обсудим 23 принципа развития ИИ.
В приведенной выше цитате Илон Маск коротко (и образно) сформулировал главные идеи, которые прозвучали в Асиломарских принципах и в многочисленных комментариях участников Асиломарской конференции, размещенных на сайте «Институт “Будущее жизни”» (комментарии добавляются до сих пор). Главные слова, которые там звучат: осторожность, ответственность, контроль, прозрачность…
Начинаются Асиломарские принципы с короткой преамбулы: «Искусственный интеллект уже предоставил полезные инструменты, которые каждый день используют люди во всем мире. Его дальнейшее развитие, руководствуясь следующими принципами, откроет удивительные возможности, которые помогут расширению прав и возможностей людей в течение десятилетий и столетий».
Принципы разделены на три части: первая посвящена вопросам организации исследований, финансированию и формам контроля, вторая — ценностям и этике, третья — вопросам долговременного планирования (свой пересказ Асиломарских принципов я буду выделять курсивом и указывать пункт).
Мы должны направлять наши силы не на случайные цели, а только на такие, которые принесут пользу (1). Это, пожалуй, самый спорный принцип из всех 23-х. Сегодня мы можем уверенно сказать далеко не обо всех работах, ведущихся в области ИИ, что они точно принесут только пользу и ничего кроме пользы, и мы убеждены, что в будущем их нельзя будет применить в недобрых целях. Ведь интернет сегодня активно применяется и для взлома, и для DDoS атак, и для многих других отнюдь не благих целей. Так он полезен или нет?
Фактически принцип (1) — это пожелание так скорректировать исследования, чтобы основные усилия были направлены на те области, которые заведомо полезны уже сегодня, например, контроль качества продукции в производстве или анализ «больших данных» в розничной торговле. Все ученые и бизнесмены, подписавшие Асиломарские принципы, с этим первым принципом вроде бы согласились. Прекратят ли они исследования в направлениях, где «польза» неясна? Очень в этом сомневаюсь.
Второй принцип (2) посвящен финансированию: нельзя инвестировать только в сами исследования по ИИ, необходимо также финансировать исследования, которые анализируют последствия. Эти последствия надо знать прямо сейчас и лучше заранее, до того, как разработка будет внедрена. «Контролирующие исследования» должны отвечать на острые вопросы: надежны ли системы? защищены ли они от взлома? делают ли они только то, что мы от них хотим, или занимаются чем-то для нас нежелательным?
Например, вот AlphaGo — она, конечно, играет в го, но вдруг она на досуге еще пароли Пентагона подламывает — ресурсы-то у нее ого-го какие. По мнению авторов Кодекса ИИ, мы можем не знать, как система выигрывает в го, но мы должны быть уверены, что она играет именно в го и ничем посторонним не занимается.
Мы должны так настраивать ИИ, чтобы его цели и ценности были теми же, что и «широко разделяемые» людьми (10 и 11). И законодательство должно отвечать возможным рискам, связанным с деятельностью ИИ (1).
То есть мы фактически признаем, что у ИИ могут быть цели и ценности, и не уверены, что они с нашими совпадут. Это показательно. А если у ИИ есть цели, которых он способен добиваться независимо от наших желаний, то как быть с понятием свободы воли? И кого мы будем судить, если ИИ серьезно напортачит? Пока, если следовать Асиломарским принципам, судить мы будем разработчиков, именно они несут полную ответственность. А что потом?
Исследования должны быть максимально прозрачными: все команды, работающие над ИИ, должны представлять, что делают другие, и согласовывать свои действия, по крайней мере в том, что касается вопросов безопасности (5). Кроме того, они должны согласовывать свои действия и с политиками (3). Это тот самый правительственный контроль, о котором говорил Маск.
Особенную тревогу вызывают автономные системы, то есть такие, которые не встроены, например, в производственный процесс, а работают, скажем, на роботе, который, как кошка, гуляет сам по себе, или интеллектуальные системы, которые общаются с миром через формальные интерфейсы, а внутри себя живут своей жизнью. Мы должны иметь возможность, если что-то пошло не так — во-первых, их остановить тогда, когда мы захотим, во-вторых, провести полную диагностику и установить причину ошибки (6) и (7).
Но особенно жестко должны контролироваться самосовершенствующиеся и самовоспроизводящиеся системы ИИ (рекурсивные) (22). Здесь нужен глаз да глаз — не уследишь, они разбегутся и устроят революцию.
(У меня есть сильное ощущение, что в Асиломаре внимательно смотрели сериал «Мир Дикого Запада» («Westworld», 2016) — многие принципы, в точности соответствуют конфликтам и коллизиям этого замечательного сериала).
Асиломарские принципы призывают избегать применения ИИ в автономных системах, способных применять летальное оружие (18). Увы, не уверен, что в этом пункте правительства их услышат.
Илон Маск призывает правительства контролировать развитие ИИ. Здесь прогноз скорее скептический. Правительства могут запретить клонирование человека — за выполнением такого запрета довольно просто следить. С ИИ все обстоит гораздо сложнее. Ведь, например, что такое AlphaGo? Внешне — это просто игрушка, не более того. Какие работы в перспективе могут оказаться опасными, с какими проектами связаны катастрофические и экзистенциальные риски (21) — это могут оценить и тоже довольно приблизительно только сами разработчики, те самые, которые «так погружаются в работу, что забывают контролировать последствия своих действий», за которыми Маск и советует правительствам внимательно присматривать. Как выпутаться из этой рекурсии — не очень понятно. Помогут ли в этом «контролирующие исследования» (1)? Тоже не факт.
И наконец, ИИ должен приносить пользу и процветание не отдельным корпорациям или государствам, а всему человечеству (23).
По этому пункту было много комментариев. Не потому что кто-то был против — упаси Бог, все были едины: «Счастье для всех, даром, и пусть никто не уйдет обиженный!» Проблема в том, что внедрение ИИ уже в ближайшие годы угрожает серьезными сокращениями персонала: здесь под раздачу попадет в первую очередь «офисный планктон», — те, кто работает с первичной информацией и простой аналитикой. Как системы ИИ будут справляться с реальными вещами, пока не очень ясно, но то, что они принесут революцию в офисы — это кажется почти несомненным. Если это случится, придется менеджерам нижнего (а может и среднего) звена понемногу переквалифицироваться, ну хотя бы в управдомы. А это значит, что уже в ближайшей перспективе ИИ принесут благо далеко не всем, и обиженных будет много. И это серьезная проблема, и к ее последствиям надо быть готовым уже сегодня.
Давайте рассмотрим еще раз случай AlphaGo — он очень показательный. В определенном смысле AlphaGo — это как раз автономный интеллект, потому что детально никто не знает, как он работает. Ведь что по сути произошло? Собрались талантливые (еще какие талантливые) программисты, написали программу (систему взаимодействующих многослойных нейронных сетей с углубленным обучением) и сказали ей:
— Ну мы тебя тут кое-чему научили — правила вот рассказали и вообще. Вот тебе сервер, где играют профессионалы го, — учись у них. Сама с собой поиграй, весовые функции постепенно настрой. Если совсем потонешь в этом океане вариантов, можешь рулетку покрутить (в AlphaGo используется алгоритм «Монте-Карло при поиске в дереве»). А мы тебе дровишки будет подкидывать (финальная версия программы работала на почти двух тысячах центральных процессоров и трех сотнях графических).
На что AlphaGo ответила:
— Вот только вы не влезайте со своими советами.
— Да какие советы! О чем ты вообще! Мы и играть-то толком не умеем, так только, немного совсем, как любители 3 дана. Ты уж давай сама.
Ну и она дала. Победа над сильнейшими игроками мира — это ее собственная заслуга.
Можно ли сказать, что системы ИИ способны думать? И как вообще оценить уровень интеллекта? Это изящно показала в своем эссе «Высшая нервная деятельность» замечательный писатель и биолог Ольга Шамборант10. Я позволю себе большую цитату. Будучи студенткой биофака МГУ, Ольга Шамборант пришла на экзамен как раз по высшей нервной деятельности (ВНД).
«Ни на одной лекции я не была, прочла в учебнике только материал своего билета. Она <преподаватель> спросила меня: “Что определяет уровень развития интеллекта?” Мне предстояло сделать открытие. Но вот чудо, мой мозг, моя ВНД не дали мне погибнуть. Совершенно неожиданно вспыхнуло на первый взгляд абсолютно постороннее воспоминание. Моя старшая сестра, когда училась в медицинском, очень любила, вернувшись с занятий, “все рассказывать”. Вот один из ее рассказов я тут вдруг и вспомнила. В рамках курса гинекологии ей пришлось ассистировать на аборте. Привели бабищу, которая, по словам сестры, была просто настоящей, типичной свиньей, примитивным животным; когда полезли к ней туда (это была эпоха неблатных абортов без обезболивания и наркоза) с металлическим ломом, так называемым расширителем шеечного канала, по существу — орудием пытки, она испытала бурный оргазм. Медперсонал, видавший виды, и то обалдел. И вот сестра моя тогда “восхищалась”, какая же это амеба! Баба, которая не различает, зачем к ней туда пожаловали. Сестра тогда многократно восторженно повторяла мне: “Представляешь, она — не дифференцирует!!!”.
И тут я в озарении ответила без запинки: “По способности дифференцировать раздражители”. И пролила бальзам на мрачную и загадочную высшую нервную деятельность преподавателя. Потом то чудо местного значения, что случилось тогда со мной, это внезапное и невольное соединение давно забытой байки с “умным вопросом” на экзамене, в свою очередь, произвело на меня сильное впечатление. Я в каком-то смысле сняла шляпу перед собственной ВНД. По крайней мере, убедилась, что ВНД существует. Даже у меня лично. Я стала Свидетелем ВНД. Мои живущие самостоятельной жизнью мозги будто бы лежали передо мной в какой-нибудь чашке Петри и, подобно наливному яблочку на серебряном блюдечке, сверкали своими неисследованными возможностями».
Это замечательный пример работы естественного интеллекта —мышление по аналогии.
Способность дифференцировать раздражители — это и есть способность распознавать образы. Чем выше разрешающая способность такого алгоритма распознавания — тем выше уровень интеллекта. И ведь не так уж важно, какой именно работает при этом алгоритм и на каком аппаратном обеспечении — мозг человека, искусственная нейронная сеть или, скажем, байесовский вывод (еще один подход к искусственному интеллекту). Уровень интеллекта все равно определяется разрешающей способностью при определенном типе восприятия (будь то сексуальное возбуждение или способность узнавать лицо человека). И ведь наш естественный интеллект иногда нас серьезно подводит, резко снижая эту разрешающую способность.
У Бориса Пастернака в цикле «Разрыв», где и говорится о разрыве с любимой женщиной, есть такие строчки: «Когда вас раз сто в теченье дня / На ходу на сходствах ловит улица!» Наш мозг постоянно «сканирует» все увиденные лица и сравнивает их со своей «базой», где хранятся лица наших знакомых. Распознавание (сканирование и сравнение) происходит с определенной вероятностью (часто высокой, но никогда не стопроцентной). Человек, расставшийся с любимой, постоянно о ней думает, и ее лицо невольно сравнивает со всеми увиденными «в теченье дня». Более того, лица других знакомых, которые хранятся в «базе», как бы смазываются. Если во всей «базе» остается одно четко различимое лицо, — различительная способность падает и не удивительно, что лица многих людей кажутся на него похожими. И вас «на сходствах ловит улица».
Я хочу вернуться к своему эссе 2002 года. Я тогда был убежден, что сделать человекоподобного робота несравнимо проще, чем научить этого робота «разумно говорить». Я был уверен, что правильный путь развития искусственного интеллекта — это не создание человекоподобного «разума», а набор алгоритмов, когда каждый такой «разум» специализируется для решения только одной заранее определенной задачи (как в шахматных программах, в Deep Blue, например). Теперь я в этом совсем не уверен.
Более того, я склоняюсь к тому, что по-настоящему человекоподобного робота-андроида именно искусственный интеллект и создаст, потому что только он способен добиться такой предельной точности настройки и такой гибкости решений (не случайно именно ИИ уже проводит контроль качества на высокоточных производствах, о чем уже шла речь).
Видимо, универсальный (а не специализированный) искусственный интеллект возможен, и главные его функции — это высокая разрешающая способность распознавания при восприятии не только реального мира, но и формальных или формализуемых пространств, многие из которых несравнимо сложнее, чем игра го.
Мышление человека — это способность различать связи вещей и идей. При высоком (очень высоком) разрешении картинки такие связи увидеть легче. Если ИИ научится распознавать и проводить аналогии, если он научится вести ассоциативный поиск, если он научится находить и анализировать связи между образами — он научится мыслить. Будут ли его алгоритмы такими, как алгоритмы «прошитые» в биологический мозг, или нет, это уже другой вопрос.
Машины ничего не забывают, их память безгранична, если они научатся свободно ориентироваться в своей памяти, у человека действительно останется немного шансов, чтобы их превзойти.
Доктор Роберт Форд — герой сериала «Мир Дикого Запада» — создатель совершенных, неотличимых от человека андроидов (которых в фильме, кстати, и разрабатывают андроиды) — говорит: машины в отличие от человека бессмертны, и они никогда не прекращают учиться.
Впрочем, на Асиломарской конференции отмечали: чего еще долго не смогут системы ИИ — они не научатся «здравому смыслу» — некодифицированному и неформальному опыту человечества, который накоплен людьми за долгую, долгую эволюцию.
Но вообще-то от того научимся ли мы «прошивать в позитронные мозги» наши заповеди (наши цели и ценности, говоря языком Асиломарских принципов), как завещал Айзек Азимов, зависит ни много ни мало — останемся мы на Земле или нет. В этом я с Илоном Маском согласен. Другое дело, достойны ли мы оставаться. Доктор Роберт Форд считал, что — нет.
1 https://www.svoboda.org/a/24203765.html.
2 https://futureoflife.org/bai-2017.
3 https://futureoflife.org/ai-principles.
4 https://futureoflife.org/ai-principles.
5 https://www.nextbigfuture.com/2017/03/hottest-areas-in-artificial-intelligence.html.
6 На английском, русском, китайском и т.д.
7 https://ru.wikipedia.org/wiki/AlphaGo.
8 http://lurkmore.to/ Портал: «Ниасилили».
9 http://biz.nv.ua/publications/budushchee-ot-ilona-maska-sovety-pravitelstvam-i-molodym-ljudjam-859929.html.
10 http://magazines.russ.ru/novyi_mir/2009/2/sh13.html.