Идиот или гений: Может ли искусственный интеллект обучиться здравому смыслу

23 января 2022
ИЗДАНИЕ

В недавней истории полно примеров, когда искусственный интеллект доказывал, что он не глупее человека. Например, он побеждал профессиональных игроков в покер и выявлял новый мощный антибиотик, который способен бороться с резистентными бактериями. Но в большинстве случаев ИИ по-прежнему далек от людей, из-за чего была даже парочка скандалов.

Являются ли машины идиотами или гениями, вопрос открытый. Ответ на него в одноименной книге в переводе Заура Мамедьярова ищет ведущая ученая-информатик Мелани Митчелл. С разрешения издательства Corpus Enter публикует отрывок о том, какую роль в обучении играют котики и может ли компьютер когда-нибудь стать таким же разумным, как Homo sapiens.


Вы когда‑нибудь выкладывали на YouTube видеоролик со своим котом? Если да, то вы не одиноки. На YouTube загружено более миллиарда видеороликов, и во многих из них фигурируют коты. В 2012 году специалисты по ИИ из Google сконструировали многослойную нейронную сеть, имеющую более миллиарда весов, которая "просматривала" миллионы случайных видеороликов на YouTube и корректировала веса таким образом, чтобы успешно сжимать, а затем распаковывать избранные кадры. Исследователи Google не ставили системе задачу приобретать знания о конкретных объектах, но что же они обнаружили через неделю тренировки, заглянув в структуру сети? Там нашелся "нейрон" (или ячейка), который, судя по всему, отвечал за кодирование котов. Эта машина-самоучка по распознаванию котов стала одним из целой серии впечатляющих прорывов ИИ, привлекших внимание публики в последнее десятилетие. В основе большей их части лежит набор алгоритмов нейронных сетей, называемый глубоким обучением.

До недавних пор представления общества об ИИ в основном формировались многочисленными фильмами и телесериалами, где ИИ был настоящей звездой, — вспомните "Космическую одиссею 2001 года" или "Терминатора". В реальном мире мы не замечали ИИ ни в прессе, ни в повседневной жизни. Если вы росли в 1990‑е или ранее, возможно, вы помните удручающее взаимодействие с системами распознавания речи при обращении в службы поддержки, роботизированную игрушку Furby, способную запоминать слова, или надоедливого и бесполезного Скрепыша, виртуального помощника в виде скрепки, созданного компанией Microsoft. Тогда еще не верилось, что появление полноценного ИИ не за горами.

Возможно, именно поэтому многие удивились и расстроились, когда в 1997 году шахматная программа Deep Blue, разработанная компанией IBM, победила чемпиона мира по шахматам Гарри Каспарова. Потрясенный Каспаров даже обвинил IBM в жульничестве, полагая, что машина не может так хорошо играть в шахматы, не получая помощи от экспертов. (По иронии судьбы на Чемпионате мира по шахматам в 2006 году ситуация изменилась, когда один из участников обвинил другого в жульничестве, решив, что тот получает подсказки от компьютерной шахматной программы, — прим. автора)

Наш коллективный человеческий страх перед Deep Blue быстро рассеялся. Мы смирились с тем, что шахматы поддались машине, использующей метод "полного перебора", и даже допустили, что умение хорошо играть в шахматы вовсе не требует общей интеллектуальной одаренности. Когда компьютеры превосходят людей в каком‑либо деле, мы обычно реагируем именно так: приходим к выводу, что для успешного выполнения этой задачи большого ума не надо. "Когда все работает исправно, никто уже не называет это ИИ", — сокрушался Джон Маккарти.

Однако с середины 2000‑х годов мы стали узнавать о новых достижениях ИИ, а затем его успехи понеслись друг за другом с головокружительной скоростью. Google запустила сервис автоматического перевода с языка на язык, "Google Переводчик". Он был несовершенен, но работал на удивление сносно, а впоследствии стал значительно лучше. Вскоре после этого на дороги Северной Калифорнии выехали беспилотные автомобили Google, осторожные и робкие, но все же самостоятельно передвигающиеся в потоке. В наших телефонах и домах появились такие виртуальные помощники, как Siri от Apple и Alexa от Amazon, которые научились обрабатывать многие голосовые запросы. YouTube стал предоставлять поразительно точные автоматизированные субтитры к видео‑ роликам, а Skype предложил синхронный перевод с одного языка на другой во время видеозвонков. Facebook вдруг стал с пугающей точностью узнавать вас на загружаемых фотографиях, а фотохостинг Flickr начал автоматически генерировать текстовое описание фотоснимков.

В 2011 году разработанная IBM программа Watson уверенно выиграла у чемпионов телеигры Jeopardy!, умело интерпретируя подсказки, изобилующие игрой слов. Наблюдая за этим, ее противник Кен Дженнингс счел нужным "поприветствовать наших новых компьютерных владык". Всего пять лет спустя миллионы интернет-пользователей вникали в премудрости игры го, издавна неприступной для искусственного интеллекта, когда программа AlphaGo в четырех партиях из пяти одержала блестящую победу над одним из лучших игроков мира.

Шумиха вокруг искусственного интеллекта быстро стала оглушительной, и деловой мир обратил на это внимание. Все крупнейшие технологические компании направили миллиарды долларов на исследование и разработку ИИ, непосредственно нанимая специалистов по ИИ или приобретая небольшие стартапы с единственной целью заполучить их талантливых сотрудников. Потенциальная возможность таких сделок, мгновенно делающих основателей стартапа миллионерами, привела к появлению множества стартапов, часто финансируемых и управляемых бывшими университетскими преподавателями, у каждого из которых был свой подход к ИИ. Журналист Кевин Келли, освещающий новости мира технологий, заметил: "Несложно представить, какими будут бизнес-планы следующих 10 000 стартапов: возьмем что‑нибудь и добавим ИИ". Важно подчеркнуть, что почти все эти компании понимали под ИИ глубокое обучение. Так расцвела очередная весна ИИ.


ИИ: ограниченный и общий, слабый и сильный

Как и в любую из прошлых весен ИИ, сегодня эксперты предсказывают, что "общий ИИ" — тот, который по большинству параметров находится на одном уровне с человеческим разумом или превосходит его, — не заставит себя ждать. "ИИ человеческого уровня появится в середине 2020‑х годов", — предрек Шейн Легг, один из основателей Google DeepMind, в 2008 году. В 2015 году генеральный директор Facebook Марк Цукерберг заявил: "В следующие пять-десять лет мы среди прочего ставим перед собой цель превзойти возможности человека в основных областях восприятия: зрении, слухе, речи, мышлении в целом". Философы ИИ Винсент Мюллер и Ник Бостром опубликовали результаты проведенного в 2013 году опроса исследователей, в котором многие заявили о пятидесятипроцентной вероятности появления ИИ человеческого уровня к 2040 году.

Хотя этот оптимизм во многом основан на недавних успехах глубокого обучения, эти программы — как и все системы ИИ, разработанные до сих пор, — относятся к сфере так называемого ограниченного, или слабого, ИИ. Эти термины не столь уничижительны, как кажется: они просто обозначают систему, которая может выполнять лишь одну узкую задачу (или небольшой набор родственных задач). Возможно, AlphaGo лучше всех в мире играет в го, но больше она ничего не умеет: она не умеет играть ни в шашки, ни в крестики-нолики. "Google Переводчик" может перевести английскую рецензию на фильм на китайский, но не может сказать, понравился ли фильм рецензенту, и уж точно не сумеет сам посмотреть этот фильм и написать о нем отзыв.

Термины "ограниченный" и "слабый" используются в противовес "сильному", "общему", "полноценному", или ИИ "человеческого уровня", то есть искусственному интеллекту из кино, который умеет почти все, что умеют люди, или даже гораздо больше. Возможно, изначально исследователи ставили своей целью разработку общего ИИ, но создать его оказалось гораздо сложнее, чем ожидалось. Со временем работа над ИИ свелась к решению конкретных, четко определенных задач по распознаванию речи, игре в шахматы, беспилотному вождению и так далее. Создание машин, которые выполняют эти функции, полезно и часто прибыльно, и можно сказать, что при решении каждой из этих задач необходимо задействовать "разум". Но пока еще не создана ни одна ИИ-программа, которую можно было бы назвать разумной в общем смысле. Это хорошо описано в недавней оценке состояния отрасли: "Множество ограниченных интеллектов никогда не составят в сумме общий интеллект. В общем интеллекте важно не количество навыков, а интеграция этих навыков".

Постойте. Учитывая, что ограниченных интеллектов становится все больше, сколько времени должно пройти, прежде чем кто‑нибудь найдет способ комбинировать их, воссоздавая широкие, глубокие и тонкие характеристики человеческого разума? Стоит ли верить когнитивисту Стивену Пинкеру, который считает, что ничего особенного не происходит? "До появления ИИ человеческого уровня по‑прежнему остается от пятнадцати до двадцати пяти лет, как это было всегда, а многие его хваленые успехи поверхностны", — отметил Пинкер. Или же нам стоит прислушаться к оптимистам ИИ, которые уверены, что на этот раз, в эту весну ИИ, все будет иначе?

Неудивительно, что в среде исследователей ИИ бытуют значительные разногласия по вопросу о том, что означает "ИИ человеческого уровня". Как понять, удалось ли нам сконструировать "думающую машину"? Нужны ли такой системе сознание или самоосознание, которыми обладают люди? Должна ли она понимать вещи так же, как их понимает человек? Учитывая, что речь идет о машине, не будет ли корректнее говорить, что она "моделирует мышление", или же можно утверждать, что она действительно мыслит?


Могут ли машины мыслить?

Подобные философские вопросы терзают сферу ИИ с самого ее возникновения. Британский математик Алан Тьюринг, разработавший в 1930‑х годах первую концепцию программируемого компьютера, в 1950 году опубликовал статью, в которой спросил, что мы имеем в виду, когда задаем вопрос: "Могут ли машины мыслить?" Предложив свою знаменитую "имитационную игру" (которая сегодня называется тестом Тьюринга и подробнее о которой я расскажу ниже), Тьюринг перечислил девять возможных аргументов против создания действительно мыслящей машины и попытался их опровергнуть. Предполагаемые аргументы варьируются в диапазоне от теологического — "Мышление — это функция бессмертной человеческой души. Бог наделил бессмертными душами всех мужчин и женщин, но не дал их ни другим животным, ни машинам. Следовательно, ни животные, ни машины не могут мыслить", — до экстрасенсорного, который звучит примерно так: "Люди могут телепатически общаться друг с другом, а машины не могут". Как ни странно, Тьюринг признал последний аргумент "довольно сильным", потому что "статистических наблюдений, по крайней мере о телепатии, несметное множество".

По прошествии нескольких десятилетий лично я считаю самым сильным из вероятных аргументов Тьюринга "возражение с точки зрения сознания", которое он формулирует, цитируя невролога Джеффри Джефферсона:

Пока машина не сможет написать сонет или сочинить концерт, побуждаемая мыслями и чувствами, а не случайной последовательностью символов, мы не сможем согласиться с тем, что машина тождественна мозгу, то есть что она не только пишет эти вещи, но и понимает, что это она их написала. Ни один механизм не может чувствовать (а не просто искусственно сигнализировать, что не требует сложного устройства) радость от своих успехов, печалиться при расплавлении клапанов, получать удовольствие от лести, огорчаться из‑за ошибок, увлекаться противоположным полом и злиться или расстраиваться, когда ему не удается получить желаемое.

Обратите внимание, что в этом аргументе говорится следующее:

1) только когда машина чувствует и сознает собственные действия и чувства — иными словами, когда она обладает сознанием, — мы можем считать, что она действительно мыслит;

2) ни одна машина никогда не будет на это способна. Следовательно, ни одна машина никогда не сможет мыслить по-настоящему.

Я считаю, это сильный аргумент, хотя и не соглашаюсь с ним. Он перекликается с нашими интуитивными представлениями о машинах и пределах их возможностей. Я обсуждала возможность создания машинного интеллекта с огромным количеством друзей, родственников и студентов, и многие из них приводили этот аргумент. Например, недавно моя мама, юрист на пенсии, прочитала в The New York Times статью об успехах "Google Переводчика", и у нас состоялся такой разговор:

Мама: Проблема в том, что люди в сфере ИИ слишком много антропоморфизируют!

Я: Что ты имеешь в виду?

Мама: Они говорят так, словно машины могут мыслить по‑настоящему, а не просто моделировать мышление.

Я: В чем разница между тем, чтобы "мыслить по‑настоящему" и "моделировать мышление"?

Мама: По-настоящему мыслят при помощи мозга, а моделируют мышление при помощи компьютеров.

Я: Что особенного в мозге, что позволяет ему мыслить "по‑настоящему"? Чего не хватает компьютерам?

Мама: Не знаю. Думаю, в мышлении есть нечто человеческое, что компьютеры никогда не смогут полностью воссоздать.

Так считает не только моя мама. Многим людям это кажется столь очевидным, что не требует объяснений. Как и многие из этих людей, моя мама причислила бы себя к сторонникам философского материализма: она не верит в существование нефизической "души", или "жизненной силы", которая наделяет живых существ разумом. Она просто считает, что машины никогда не будут в состоянии "мыслить по‑настоящему".

В научных кругах самую знаменитую версию этого аргумента предложил философ Джон Сёрл. В 1980 году Сёрл опубликовал статью "Разум, мозг и программы", в которой заявил о своем категорическом несогласии с тем, что машины могут "мыслить по‑настоящему". В этой популярной и неоднозначной статье Сёрл ввел концепции "сильного" и "слабого" искусственного интеллекта, чтобы провести черту между двумя философскими утверждениями о программах ИИ. Хотя сегодня люди в основном называют сильным "ИИ, способный выполнять большинство задач на человеческом уровне", а слабым — уже существующий ограниченный ИИ, Сёрл использовал эти термины иначе. В представлении Сёрла, ИИ можно назвать сильным, если "должным образом запрограммированный цифровой компьютер не просто моделирует разум, а в буквальном смысле обладает разумом". Примерами слабого ИИ Сёрл, напротив, считал компьютеры, которые используются для моделирования человеческого разума, но не обладают разумом "в буквальном смысле". И здесь мы возвращаемся к философскому вопросу, который я обсуждала с мамой: есть ли разница между "моделированием разума" и "обладанием разумом в буквальном смысле"? Как и моя мама, Сёрл полагает, что эта разница принципиальна, и заявил, что сильный ИИ невозможен даже в теории.