К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

Противоположность кошке: как отличить робота и почему мы проваливаем тест Тьюринга

Кадр из фильма «Из машины»
Кадр из фильма «Из машины»
«ИИ не следует тратить время на попытки понять точку зрения людей, которые зарабатывают на жизнь неверием в искусственный интеллект», — написала нейросеть в эссе на тему «Почему людям не стоит бояться искусственного интеллекта». Даже если пока вопрос о наличии сознания у машин может казаться избыточным, момент, когда нам придется начать на него отвечать, может наступить раньше, чем нам кажется. Стандартная цель ИИ — воспроизвести и превзойти человеческий интеллект. И последствия успешной реализации этой цели трудно спрогнозировать

Нейробиолог Анил Кумар Сет, который изучает когнитивную и вычислительную нейробиологию в Университете Сассекса, на протяжение 20 лет своей академической карьеры пытается понять, в чем заключается феномен человеческого сознания. В ходе своих исследований он пришел к выводу, что наше сознание представляет собой контролируемую галлюцинацию. Исследуя, что происходит в нашем мозге в процессе восприятия реальности, он создал «галлюциногенную машину», которая имитирует эффект от приема психоделических препаратов, и утверждает, что все мы на самом деле постоянно галлюцинируем. «Просто, когда мы сходимся во мнении относительно этих галлюцинаций, мы называем их реальностью», — пишет он в своей книге, которая резюмирует результаты его научных исследований.

В книге «Быть собой. Новая теория сознания» (выходит в июне в издательстве «Альпина нон-фикшн») он объясняет, что порождает феномены восприятия, вроде загадки синего или белого платья, есть ли сознание у животных, почему осьминоги — одни из самых необычных живых существ, и что происходило бы с сознанием человека во время телепортации. Forbes публикует отрывок, посвященный сознанию машин. 

«Даже если до машин, действительно обладающих сознанием, еще далеко (если, собственно, они на самом деле возможны), нам все равно еще о многом нужно беспокоиться. Вполне вероятно, что в ближайшем будущем уровень развития ИИ и робототехники приведет к появлению новых технологий, которые будут казаться сознательными, даже если у нас не будет безоговорочных оснований считать их сознательными на самом деле. 

 

В фильме Алекса Гарленда «Из машины» 2014 года нелюдимый технический гений-миллиардер Нейтан приглашает крутого программиста Калеба в свою уединенную резиденцию и знакомит со своим творением — любознательным умным роботом Авой. Задача Калеба — выяснить, наделена ли Ава сознанием, или она просто умный автомат, не имеющий внутренней психической жизни. 

В фильме активно используется тест Тьюринга, знаменитый инструмент для выявления у машины мыслительных способностей. В одной яркой сцене Нейтан экзаменует Калеба на знание этого теста. В стандартной версии теста, как известно Калебу, оценивающий человек тестирует одновременно и претендующую на разумность машину, и другого человека удаленно, обмениваясь только печатными сообщениями. Оригинальная «игра в имитацию», разработанная Аланом Тьюрингом, проводится с участием машины и двух человек одного пола. Машина и один из участников притворяются человеком противоположного пола. Второй участник должен понять, кто из собеседников машина, а кто человек. Для машины тест считается пройденным, когда оценивающий многократно затрудняется отличить ответ машины от ответа человека. Однако Нейтан придумал кое-что поинтереснее. «Мы посмотрим, — говорит он Калебу, — будете ли вы, даже зная, что она робот, воспринимать ее как сознательную личность». 

 

Эта новая игра превращает тест Тьюринга из теста на интеллект в тест на сознание, а это, как мы теперь знаем, явления совершенно разные. Более того, Гарленд показывает нам, что тест в действительности направлен не на робота. Как объясняет Нейтан, главное не в том, машина Ава или нет. И даже не в том, обладает ли машина Ава сознанием. Главное — может ли Ава создать у обладателя сознания впечатление, что она тоже сознательна. Обсуждение этого момента Нейтаном и Калебом гениально, поскольку оно раскрывает, в чем на самом деле заключается тест: это проверка не для машины, а для человека. Это относится и к изначальному тесту Тьюринга, и к созданному Гарлендом в XXI веке аналогу, ориентированному на сознание. Диалог между героями фильма настолько элегантно и точно описывает проблему признания машины сознательной, что сейчас постепенно набирает популярность термин «тест Гарленда»  — редкий пример ситуации, когда научная фантастика не только заимствует что-то у науки, но и отдает. 

Многие простые компьютерные программы, в том числе разнообразные чат-боты, сейчас объявляются проходящими тест Тьюринга, поскольку им в достаточном числе случаев удается ввести в заблуждение относительно своей природы достаточное число судей. В одном особенно забавном примере, тоже 2014 года, 10 из 30 судей приняли чат-бот, общающийся от лица 13-летнего украинского мальчишки, за настоящего подростка- украинца. Начались громкие заявления, что мы наконец преодолели недостижимые прежде рубежи в развитии искусственного интеллекта. Но, разумеется, изобразить иностранного подростка, плохо владеющего английским, намного проще, чем успешно изобразить того, кого с вами роднят возраст, культура и язык, особенно когда допускается только обмен текстовыми сообщениями на расстоянии. Когда чат-боту засчитали прохождение теста, он написал: «Побеждая над тьюрингом [sic] я чувствую себя приятно» («I feel about beating the turing test in quite convenient way. Nothing original»). Еще бы ему было не победить, если планка настолько снижена. По факту это оказалось тестированием человека на доверчивость, и человек не справился. 

Но поскольку ИИ продолжает совершенствоваться, возможно, скоро тест Тьюринга будут проходить и без искусственного занижения стандартов. В мае 2020 года научно- исследовательская лаборатория OpenAI выпустила GPT-3 — обширную искусственную нейросеть, обученную на примерах естественного языка, взятых из огромного массива текстов интернета. GPT-3 может вступать в диалоги в формате чат-бота, а может создавать довольно большие куски текста в самых разных стилях, отталкиваясь от нескольких заданных слов или строк. И хотя сама она своих творений понять не в состоянии, они поражают — а кого-то даже пугают — гладкостью и уровнем сложности. В одном примере, опубликованном в The Guardian, она написала эссе на  слов о том, почему людям не стоит опасаться ИИ, затронув целый ряд тем от психологии человеческого насилия до промышленного переворота и огорошив читателя вот таким пассажем: «ИИ не следует тратить время на попытки понять точку зрения людей, которые зарабатывают на жизнь неверием в искусственный интеллект». 

 

Тем не менее я почти уверен, что достаточно подкованный собеседник-человек сумеет разоблачить и GPT-3 с ее высоким уровнем сложности текстов. Чего, возможно, уже не выйдет с грядущими версиями — GPT-4 или, скажем, GPT-10. Но даже если будущая GPT-подобная система будет устойчиво проходить тест Тьюринга, она охватит лишь один очень узкий пласт (симулированного) интеллекта — обезличенный языковой обмен, не воплощая полностью той самой способности естественного разума «делать то, что нужно, когда нужно», которую мы наблюдаем у человека и многих других животных. 

Что касается сознания, тут у нас нет аналога украинскому чат-боту, не говоря уже ни о каких GPT. Тест Гарленда остается непройденным. В действительности попытки создать симулякр чувствующего и осознающего свои чувства человека чаще вызывают у нас тревогу и отторжение, а не сложную смесь влечения, эмпатии и жалости, которую вызывала у Калеба Ава в фильме «Из машины». 

Японский робототехник Хироси Исигуро уже не первое десятилетие конструирует роботов, придавая им максимально возможное сходство с человеком. Он называет их геминоиды . Исигуро создал геминоидные копии себя и своей дочери (тогда шестилетней), а также геминоидную телеведущую со смешанными японско-европейскими чертами на основе обобщенного портрета около 30 разных людей. Каждый геминоид конструируется по подробным 3D-сканам тела и оснащается пневматическими приводами, способными порождать широкий спектр мимики и жестов. Искусственного интеллекта как такового в этих устройствах почти нет — они подражают человеку лишь внешне и применение находят среди прочего в удаленном присутствии и «телеприсутствии». Одного из своих геминоидов Исигуро как-то раз посадил читать 45-минутную удаленную лекцию 150 студентам. 

Впечатление эти геминоиды производят безусловно жутковатое. Они реалистичны, но недостаточно. Представьте себе встречу с геминоидом как прямую противоположность встрече с кошкой. При виде кошки, или, допустим, осьминога, у нас сразу возникает ощущение, что мы имеем дело с существом сознательным, пусть даже внешне совершенно не похожим на нас. При виде геминоида поразительное, но все же не стопроцентное физическое сходство только усиливает и подчеркивает расхождения и инаковость. В одном исследовании 2009 года самым распространенным ощущением, которое вызывал геминоид у посетителей, был страх

Эта реакция — пример так называемого эффекта зловещей долины, понятия, введенного в 1970 году другим японским исследователем, Масахиро Мори. Согласно гипотезе Мори, чем больше робот похож на человека, тем больше он нам нравится и тем больше мы ему сочувствуем (вспомним, например, C-3PO из «Звездных войн»), но, как только сходство достигает определенного предела, за которым робот в чем-то слишком похож на человека, а в чем-то недотягивает, симпатия резко сменяется отторжением и страхом (тут-то и образуется «зловещая долина») и возвращается, только когда сходство усиливается до полной тождественности и неотличимости. Хотя к единому мнению о том, почему возникает «зловещая долина», ученые не пришли, в существовании ее почти никто не сомневается. 

 

В отличие от роботов реального мира, которые пока не могут выбраться из «зловещей долины», виртуальные создания уже карабкаются на противоположный ее склон. Недавний прогресс в машинном обучении, достигнутый за счет использования «генеративно-состязательных нейросетей» (GANN), позволяет создавать фотореалистичные изображения несуществующих людей. Эти фотографии получены путем «умного» объединения различных черт из больших баз данных настоящих лиц с применением почти таких же технологий, как те, что использует наш мозг. Осталось добавить сюда технологию «дипфейк», позволяющую анимировать эти лица, чтобы они «заговорили», затем дать им слово с помощью продолжающих совершенствоваться программ распознавания и производства речи, таких как GPT-3, — и вот наш мир уже населен виртуальными людьми, совершенно неотличимыми от виртуальных репрезентаций реальных людей. В этом мире мы отвыкнем отличать реальное от виртуального. 

Все, кому кажется, что эти творения упрутся в своем развитии в потолок, так и не успев пройти дополненный видеосредствами тест Тьюринга, скорее всего, ошибаются. За подобным скепсисом стоит либо непрошибаемая убежденность в нашей (человеческой) исключительности, либо отсутствие воображения, либо и то и другое. Тест будет пройден. Соответственно, остаются два вопроса. Первый: сумеют ли эти новые виртуальные создания перейти в реальный мир, преодолев «зловещую долину», из которой никак не выберутся геминоиды Исигуро? Второй: покорится ли им тест Гарленда? Начнем ли мы воспринимать эти новые создания как не только разумные, но и обладающие сознанием, даже если будем знать, что это не более чем строки компьютерного кода? И если да, как это отразится на нас самих? 

Стремительное развитие ИИ, независимо от того, на какой горючей смеси ажиотажа и реального прогресса оно разгоняется, вынуждает нас снова и снова задумываться о его этической стороне. Немало опасений связано с социоэкономическими последствиями внедрения таких технологий ближайшего будущего, как самоуправляемые автомобили и замена работников предприятий автоматами, что неизбежно нарушит привычный нам уклад. Нас закономерно тревожит делегирование принятия решений искусственным системам, внутренние процессы которых подвержены всевозможным искажениям и сбоям и при этом недостаточно прозрачны не только для пользователя, но и для разработчика. Самый острый вопрос в этой категории: какие ужасы нас ждут, если доверить искусственному интеллекту контроль над ядерным оружием или опорной сетью интернета? 

Еще одна немаловажная этическая проблема — психологические и поведенческие последствия внедрения искусственного интеллекта и машинного обучения. Вторжение дипфейков в личное пространство, модификация поведения прогнозными алгоритмами, искажение убеждений в отфильтрованных информационных пузырях и герметичных камерах соцсетей — это лишь некоторые из множества сил, раздирающих ткань нашего общества. Потакая разгулу этих сил, мы добровольно уступаем свою идентичность и независимость безликим «дата-корпорациям» в ходе безграничного и бесконтрольного общемирового эксперимента. 

 

На этом фоне обсуждение сознания у машин с точки зрения этики может казаться избыточным и слишком головоломным. Но это лишь видимость. Обсуждения необходимы, даже если у обсуждаемых машин сознания нет (пока). Когда тест Гарленда будет пройден, нам предстоит жить в одном мире с существами, которых мы будем воспринимать как обладающих субъективной внутренней жизнью, даже зная или веря, что она у них отсутствует. Психологические и поведенческие последствия этого соседства трудно спрогнозировать. Один из вероятных вариантов: мы научимся проводить границу между ощущениями и требуемыми поступками и нам будет представляться вполне естественным любить и окружать заботой человека, но не робота, даже если обладателями сознания покажутся оба. Как это отразится на психологии каждого отдельного человека, пока неясно. 

В телесериале «Мир Дикого Запада» человекоподобных роботов специально производят как «груши для битья» — чтобы человек вымещал на них свои самые низменные инстинкты, издевался, убивал и насиловал. Можно ли, истязая робота, чувствовать в нем сознание, понимать, что это сознание лишь иллюзия, и сохранить при этом рассудок? Для нашего нынешнего склада ума и психики это будет откровенной социопатией. 

Другой вероятный вариант состоит в том, что наш привычный круг морально- нравственных интересов исказит антропоцентрическая склонность больше сочувствовать существам, с которыми мы ощущаем большее сходство. В этом случае представители следующего поколения наших близнецов-геминоидов, возможно, станут нам ближе и дороже, чем другие люди, не говоря уже о других животных. 

Конечно, будущее не обязательно должно оказываться антиутопией. Но, учитывая набирающую обороты гонку прогресса и ажиотажа в области ИИ, замешанная на психологии этика тоже должна будет сказать свое слово. Запустить новую технологию и сложа руки смотреть, что будет дальше, попросту неправильно. Начнем с того, что нам не стоит слепо и бездумно добиваться стандартной цели ИИ — воспроизвести, а затем превзойти человеческий интеллект. Как справедливо заметил философ Дэниел Деннет, мы создаем «разумные инструменты, а не коллег», и об этой разнице нельзя забывать. 

 

Перейдем теперь к варианту, при котором машины и вправду обретут сознание. Если мы действительно вольно или невольно внедрим в мир новые разновидности субъективного опыта, нам придется иметь дело с нравственно-этическим кризисом беспрецедентных масштабов. К статусу обладателя сознания непременно прилагается нравственный статус. Мы должны будем минимизировать потенциальные страдания сознательных машин точно так же, как мы должны минимизировать страдания живых существ, а нам и это не особенно удается. А с этими гипотетическими искусственно чувствующими деятелями возникает дополнительная трудность: мы можем даже не догадываться, как именно они ощущают свою сознательность. Представьте себе систему, испытывающую совершенно неведомые нам страдания, для которых у нас, людей, нет ни аналогов, ни понятий, ни инстинктов, позволяющих их распознать. Представьте себе систему, для которой в принципе не существует такого явления, как разница между положительными и отрицательными ощущениями, у нее просто соответствующего феноменологического измерения нет. Сложность в данном случае заключается в том, что мы даже не подозреваем, какие этические проблемы могут в связи с этим возникнуть. 

Даже если до появления искусственного сознания еще по-прежнему далеко, об этой перспективе все равно нужно задуматься уже сегодня. И хотя мы не знаем, чего потребует создание сознательной машины, мы не знаем и другого — чего оно не потребует. 

Именно поэтому в июне  2019 года немецкий философ Томас Метцингер призвал немедленно объявить 30-летний мораторий на все исследования, направленные на формирование «синтетической феноменологии», как он ее обозначил. Я присутствовал при этом заявлении. Мы оба выступали на конференции, посвященной искусственному сознанию, которую устраивал в Кембридже Центр Леверхульма по изучению будущего интеллекта. Призыву Метцингера трудно было бы последовать буквально, поскольку под его действие подпадает едва ли не все компьютерное моделирование в психологии, но идея понятна. Мы не должны бездумно ломиться вперед, пытаясь создать искусственное сознание просто потому, что нам это кажется интересным, полезным или крутым. Самая лучшая этика — профилактическая».

Мы в соцсетях:

Мобильное приложение Forbes Russia на Android

На сайте работает синтез речи

Рассылка:

Наименование издания: forbes.ru

Cетевое издание «forbes.ru» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2024
16+