Философские зомби и боты-психотерапевты: можно ли эксплуатировать чувствующих роботов
Нейропсихолог Марк Солмс на определенном этапе своей карьеры решил изучить психоанализ и работы Фрейда, чем вызвал скептическое отношение со стороны коллег. К тому времени к Фрейду и его работам в «серьезной» науке относились весьма критично. Однако Солмс уверен, что современные ученые несправедливы к Фрейду и недостаточно внимательно изучили его труды, в том числе по нейробиологии. Более того, он уверен, что во многом такое отношение к австрийскому пионеру психоанализа обусловлено ошибками в переводах — и уже начал их исправлять.
В своей новой книге «Скрытый источник сознания: В поисках природы субъективного опыта» (выходит в издательстве «Альпина нон-фикшн») Солмс рассказывает, о своем опыте в сфере психоанализа и о попытках найти ответ на многовековой вопрос, что же собой представляет человеческое сознание. Нейропсихолог выдвигает в ней революционную теорию, согласно которой определяющую роль для сознания играют чувства и эмоции, представляющие собой «скрытый источник».
В книге автор пытается ответить на вопросы: как сознание связано с телом, каким образом мозг порождает сознание и как оно потом управляет телом. Руководствуясь исключительно научными принципами, Солмс приходит к выводу, что для того, чтобы подтвердить или опровергнуть свою гипотезу, ученым необходимо создать наделенный сознанием искусственный интеллект, и он считает, что на данном этапе это вполне возможно. Forbes публикует отрывок из книги.
Установить, есть ли чувства у ИИ — непростая задача. Мы не стремимся сконструировать ИИ, выполняющий какую-либо практическую задачу, решение которой стало бы наблюдаемым критерием того, что мы достигли своей цели. У системы, которую мы должны сконструировать, нет иной объективной цели, кроме выживания, и в первую очередь выживания в непредсказуемой среде. Но если она достигнет этого объективного критерия, откуда нам знать, использовала ли она при этом чувства? Я ожидаю как раз этого — что она станет их использовать, но чувства по природе своей субъективны, поэтому, как радостно напоминает нам «Википедия», «совершенно невозможно представить, каким образом» мы можем доказать их наличие объективно.
И снова на помощь нам приходят правила науки. Науке не требуется абсолютного доказательства. Такая уступка касается не только исследования механизма сознания — она распространяется на все. В соответствии с этими правилами необходимо лишь выдвинуть разумную гипотезу и затем проверить ее таким способом, который дает убедительную возможность ее опровергнуть. Так как же в данном случае мы узна́ем, опровергнута ли гипотеза о том, что наша самоподтверждающаяся система обладает сознанием? Можно допустить существование «аффективных зомби», которые будут вести себя так, словно обладают сознанием, не обладая им. Как в таком случае нам узнать, есть ли у них сознание или его нет на самом деле?
Традиционный ответ на этот вопрос дает тест Тьюринга— простейший тест, в котором вы должны пообщаться с системой через монитор компьютера и по одним только ее словесным репликам определить, есть ли у нее сознание. Если вы решили, что общаетесь с реальным носителем сознания (по правилам — если 30﹪ судей через пять минут разговора выносят такое решение), то считается, что машина прошла тест.
Вот пример, опубликованный мною совместно с Оливером Тёрнбеллом в 2002 году. Он общался через интернет с кем-то или чем-то по имени ЭЛИЗА (ELIZA), выдававшим себя за психотерапевта. Задача Оливера состояла в том, чтобы определить, человек это или нет.
ЭЛИЗА: Здравствуйте. Расскажите о вашей проблеме.
Оливер: Почему я несчастен?
ЭЛИЗА: Вы думаете, вы должны быть счастливы?
Оливер: Я думаю, я заслуживаю больше счастья, чем мне досталось на данный момент.
ЭЛИЗА: Вы на самом деле так думаете?
Оливер: Да, жизнь не должна быть настолько жестокой.
ЭЛИЗА: Вы настроены довольно решительно.
Оливер: Полагаю, так и есть, по крайней мере временами.
ЭЛИЗА: Поэтому вы ко мне обратились?
Оливер: Я обратился, потому что мне нужна помощь.
ЭЛИЗА: Это истинная причина?
Оливер: Вообще-то я обратился к вам потому, что слышал, будто вы — компьютер, а не настоящий психотерапевт.
ЭЛИЗА: Вас беспокоят компьютеры?
Оливер: Я могу задать вопрос?
ЭЛИЗА: Можете ли вы задать вопрос, зависит скорее от вас, чем от меня.
Оливер: Вопрос такой: как связаны мозг и сознание?
ЭЛИЗА: Кажется, я вас не совсем понимаю.
Оливер: Это трудная проблема— понять, как психическая жизнь возникает из физиологических событий?
ЭЛИЗА: Продолжайте, пожалуйста…
Надеюсь, вы догадались, что ЭЛИЗА — не человек, а чатбот, компьютерная программа, причем очень простенькая. Однако среди ее собеседников на удивление много людей, уверенных, что они имеют дело с настоящим психотерапевтом, а многие считают, что она им помогла.
Очевидно, с тестом Тьюринга что-то не так. Как указали мы с Оливером Тёрнбиллом, главный недочет заключается в том, что это бихевиористский тест на интеллект, а не настоящий тест на наличие сознания. Действительно, «умное» поведение машины порой бывает неотличимо от человеческого, и в таких случаях машина должна рассматриваться как равная нам (или даже превосходящая нас) в отношении интеллекта. В этом смысле и компьютеры, и люди, безусловно, проявляют «интеллект». Но в связи с проблемой философского зомби возникает другой вопрос, связанный как раз не с поведением или интеллектом, а с тем затруднительным фактом, что, когда речь заходит о сознании, внешняя сторона бывает обманчива.
За прошедшие годы был предложен ряд других формальных тестов — часть из них специально предназначалась для проверки на наличие сознания, — но все они столь же непригодны для наших целей, как и тест Тьюринга, в первую очередь потому, что предполагают тестирование на когнитивное, а не аффективное (связанное с эмоциями) сознание. Мы пытаемся сконструировать нечто намного более простое — разум, сложность когнитивных процессов которого не превышает уровня, достаточного для того, чтобы ощутить истощение своих запасов энергии или перегрев.
Положительная сторона теста Тьюринга состоит в том, что он позволяет обойти предрассудки. Существует опасность, что мы, люди, априори будем считать, что нечто похожее на «простую машину» всегда лишено сознания. Это может стать самосбывающимся пророчеством. Человечеству издавна присущи подобные проявления догматизма, сохраняющиеся и поныне. Здесь я имею в виду не столько предрассудки, связанные с расовой и гендерной принадлежностью или сексуальной ориентацией, что и так достаточно прискорбно, сколько представление, что дети с врожденным отсутствием коры не могут обладать сознанием и что то же самое относится к животным. Если многие люди, включая уважаемых нейробиологов, склонны считать, что крысы, будучи, как и мы, млекопитающими, обладая по сути таким же строением среднего мозга, как у нас, а кроме того, и корой, к тому же действуя во всех отношениях так, как если бы они обладали сознанием, тем не менее его лишены, — стоит ли надеяться, что они подтвердят наличие чувств у нашего искусственного субъекта, сколько бы доказательств мы ни представили?
Поживем — увидим. Все, что я могу сделать со своей стороны, — внятно сформулировать свои прогнозы и описать, как я намерен их проверять. Нам понадобится определить искусственный «нейронный коррелят сознания» в нашей системе — ее механизм отбора аффектов и механизм, посредством которого она удерживает выбранный аффект в сознании и использует его для оценки неопределенности в ходе разворачивающейся последовательности действий. Если удастся определить такой механизм, это позволит нам управлять им примерно так, как мы уже проделывали с теми частями мозга позвоночных, которые, по нашим данным, отвечают и за наше собственное сознание (из-за проблемы чужого сознания оно по-прежнему остается единственной формой сознания, существование которой мы можем подтвердить непосредственно, эмпирически, т. е. на своем личном опыте).
Например, можно с уверенностью предсказать, что повреждение нейронного коррелята сознания в нашей системе уничтожит ее сознание так же, как это происходит при повреждении парабрахиального (околоручкового) комплекса у нас, позвоночных, или, по крайней мере, что такое повреждение лишит ее способности к произвольным действиям так же, как бывает у нас при повреждении ОВСВ (околоводопроводного серого вещества). Точно так же можно предсказать, что стимуляция этого критически важного компонента системы будет способствовать таким действиям. Кроме того, безусловно, можно ожидать, что запись внутренней активности системы будет давать прогноз не только внешних событий, но и сопутствующих целенаправленных волевых актов поведения и что различные аспекты этой зафиксированной активности будут соответствовать различным аспектам наблюдаемого поведения.
Больше всего я надеюсь на то, что, как только мы выявим нейронный коррелят сознания у нашей искусственной системы, этот компонент будет в достаточной степени отличаться от других компонентов ее функциональной архитектуры — в особенности от тех, которые отвечают за осуществление адаптивных поведенческих актов, обычно обусловленных чувствами, — чтобы управлять предполагаемыми чувствами независимо от их адаптивных следствий. Так, половое поведение обычно мотивировано удовольствием, которое оно дает, а не императивом размножения, в ходе эволюции связавшим биологическое вознаграждение с поведенческими актами, связанными с процессом размножения.
Здесь я имею в виду некий аналог того, что наблюдается у людей, страдающих зависимостями: мотивацию выполнить некую работу для достижения желаемых ощущений, пусть даже сами эти ощущения не дают системе адаптивного преимущества в том, что касается ее основных принципов, связанных с целевыми установками этих систем. Нечто подобное наблюдается и у животных (например, рыбок данио-рерио), демонстрирующих обусловленное предпочтение тех мест, где они получали наркосодержащие вещества и никотин — то есть гедонистические вознаграждения, не дающие явных адаптивных преимуществ и, более того, способные принести вред. Если нечто подобное можно будет продемонстрировать в отношении нашей системы, мне кажется, это будет весомым доводом в пользу наличия у нее субъективных ощущений — доводом, который можно затем подвергнуть перекрестной проверке с помощью каузальных воздействий (таких как искусственное повреждение и стимуляция) и методов записи информации, предусмотренных выше.
Естественно, при этом проблема чужого сознания никуда не денется. Но она же касается нас с вами. Я никогда не узнаю наверняка, есть ли сознание у вас. В конечном итоге все сводится к совпадению данных и весомости доказательств. На этот счет единого мнения, возможно, так и не появится, как нет на данный момент единого мнения в отношении того, являются ли дети с гидранэнцефалией и животные субъектами переживания. Кто не согласен, что все эти существа обладают сознанием, тот, видимо, никогда не согласится, что искусственное «существо» что-то чувствует, сколько бы данных в пользу этого ни приводилось. У всех остальных из нас всегда должно оставаться место сомнению. Что касается меня, если окажется, что мне очень сложно ответить на вопрос, обладает созданный нами искусственный субъект сознанием или нет, то это уже будет замечательный результат.
Стоит ли этим заниматься? Когда наш коллектив впервые задумался над описанным мною исследовательским проектом, нас сразу же стали беспокоить этические вопросы. В чем цель создания подобной машины? Кто может извлечь из нее пользу, каким способом, какой ценой, кому придется расплачиваться? В общем, каковы риски?
Многие из осуществляемых в настоящее время проектов и разработок, связанных с ИИ, обусловлены коммерческими соображениями. Стоит ли нам принимать финансовые средства на исследования от тех, кто хочет извлечь денежную выгоду из нашего проекта? На каких основаниях устройство, наделенное искусственным сознанием, может стать для кого-то прибыльным? Понятно желание лиц, имеющих коммерческий интерес (лиц в юридическом смысле, что подразумевает и корпорации), заменить человеческий труд искусственными производственными единицами, которые могут быть даже эффективнее нас — в том числе по интеллектуальным способностям, — или просто не «возражают» против беспрерывного выполнения монотонных действий. Даже если этот мотив сомнителен с этической точки зрения, так как вызывает беспокойство в связи со снижением перспектив трудоустройства для людей, то, по крайней мере применительно к машинам, не обладающим сознанием, не стоит вопрос эксплуатации.
В отношении нашего проекта этого сказать нельзя. Поскольку возможно использовать искусственное сознание ради денежной выгоды, постольку мы рискуем способствовать возникновению новой формы рабства. Это будет означать сокрушительное поражение эмпатии, уже не первое в истории. Поэтому я не могу представить себе никакого этического оправдания разработке чувствительных роботов в рамках коммерчески финансируемых программ—или даже вообще их разработке в подобных практических целях, если возникает вероятность их эксплуатации.
Наше беспокойство по поводу благополучия гипотетических машин, наделенных сознанием, конечно, не ограничивается опасениями, что их могут эксплуатировать ради финансовой выгоды. Как только машины обретут сознание (пусть даже самые зачаточные формы элементарных чувств), обязательно возникнут более общие вопросы в отношении их способности к страданию. Преобладающая традиция в западной этической теории — консеквенциализм (т. е. представление, что судить о правильности или неправильности каких-либо действий надо в конечном счете исходя из ожидаемых последствий этих действий) — придает большое значение боли и страданию. Поэтому, создавая искусственное чувствующее существо, мы оказываемся в зоне действия этого рода этических факторов.
Вопрос прав таких созданий еще более противоречив. Как только машины обретут чувства, будут ли и на них распространяться проблемы, обсуждаемые ныне под такими формулировками, как «права человека», «права животных», «права ребенка», «право на жизнь» и так далее? Должны ли машины, наделенные сознанием, иметь права на «жизнь» и свободу? В действительности идея «прав роботов» уже существует, и эта проблема рассматривается Институтом будущего в США и Министерством торговли и промышленности в Великобритании.
В качестве примера упомяну лишь две проблемы, связанные с роботами, наделенными сознанием (а не просто интеллектом). Когда мы попытаемся их создать — или хотя бы просто узнать, возможно ли это, — оправданно ли преднамеренно помещать их в ситуации, предположительно стрессовые для них, чтобы продемонстрировать негативные реакции? (Этот вопрос часто возникает при экспериментах с животными.) И если нам удастся создать чувствующие машины, можно ли этически обосновать их выключение? Можно привести еще множество примеров.
Наряду с подобными этическими и нравственными вопросами следует принимать во внимание и практические вопросы. Некоторые из них крайне важны, причем важны в экзистенциальном смысле. Например, ввиду того, что компьютеры уже превзошли нас по интеллекту в некоторых отношениях, не может ли случиться так, что у машин, обладающих одновременно высоким интеллектом и чувствами, появятся мотивы, противоречащие интересам человечества? Эта вероятность давно вызывает беспокойство у писателей фантастов и футурологов, но я хотел бы привлечь особое внимание к тому факту, что сознание в том понимании, к которому мы приходим в этой книге, в отличие от интеллекта, тесно связано с представлениями о том, что является «благом» для выживания и размножения. Разумная машина, чье поведение основывается на этой системе ценностей, представляет особую опасность не только для людей, но, возможно, и для всех остальных существующих форм жизни. Эта опасность, безусловно, возникнет для всякой формы жизни, которую такая «эго-машина» будет рассматривать как потенциальную угрозу или хотя бы как значимого конкурента за ресурсы. Интеллект в сочетании с мотивом самосохранения — совсем не то, что просто интеллект.
Не стану перечислять все этические затруднения и потенциальные опасности, которые влечет за собой возможность появления способности чувствовать у искусственных существ. На эту тему уже имеется обширная литература. О текущем положении дел с ИИ красноречиво говорит тот факт, что подобные вопросы всерьез обсуждаются столь многими влиятельными лицами. Уже этого достаточно, чтобы побудить вас относиться к перспективе появления чувствующих машин с большей настороженностью. Разумеется, сейчас я осознаю эти проблемы как никогда. Еще в 2017 году я считал, что робот, наделенный сознанием, — неосуществимая затея, не только на моем веку, но и в принципе. Теперь я уже так не думаю.
Итак, с учетом всех этих этических сомнений, почему я все же считаю, что нам необходимо попытаться продемонстрировать возможность создания искусственного сознания? Просто потому, что это, видимо, единственный способ опровергнуть или подтвердить мои гипотезы о природе человеческого сознания. Только сконструировав сознание, мы сможем убедиться в том, что разрешили вопрос, как и почему оно возникает.
Достаточно ли этой причины для того, чтобы пойти на огромные риски, перечисленные выше? Мой собственный ответ на этот вопрос исходит из следующего соображения: если что-то можно сделать, это будет сделано. Иными словами, если в принципе возможно сконструировать сознание, то где-нибудь и когда-нибудь это произойдет. Этот прогноз работает независимо от того, верны ли конкретные гипотезы, представленные в моей книге. Однако я отвечаю за данные гипотезы и за вероятность того, что они окажутся верными. Если они верны или верно хотя бы выбранное направление, то создание искусственного сознания неизбежно. Иными словами, некоторые из этих гипотез вскоре будут использованы для разработки сознания.