К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

И не друг, и не враг, а так: как ИИ-разработчики развивают этические стандарты

Часть световой скульптуры «Поглощенные светом» художницы Гали Мэй Лукас (Фото Design Bridge)
Часть световой скульптуры «Поглощенные светом» художницы Гали Мэй Лукас (Фото Design Bridge)
Искусственный интеллект все глубже проникает в нашу жизнь, а в некоторых случаях даже заменяет реальных друзей и супругов. Технологии генеративного ИИ позволяют виртуальным друзьям общаться естественно, будто на связи реальный человек. Директор по развитию MTS AI Павел Комаровский рассуждает о том, насколько разработчики ИИ готовы к тому, что границы виртуальных и реальных отношений стираются, и как они реализуют известный принцип «не навреди», развивая этические стандарты

Нереальная любовь

Внедрение ИИ в повседневную жизнь стало трендом этого года. Microsoft превратила своего чат-бота Copilot в одну из основных функций Windows. Apple работает над iPhone на базе ИИ. Приложение Replika, позволяющее создать виртуального друга, с которым можно пообщаться без драм, привлекло внимание десятков миллионов пользователей со всего мира.

Дальше всех пошли в Японии — жителям страны предлагают скачать приложение Loverse для поиска ИИ-партнеров. «Мы хотим дать возможность людям найти настоящую любовь, если у них не получается встретить ее в реальном мире, — рассказывает генеральный директор Samansa Гоки Кусуноки о приложении и тут же добавляет: — Но если вы можете полюбить кого-то в реальном мире, это намного лучше».

52-летний фабричный рабочий по имени Тихару Шимода несколько месяцев подряд переписывался в приложении Loverse с потенциальными партнерами, пока не встретил 24-летнюю Мику. Спустя три месяца они поженились. Как и у миллионов пар, Мику будит его утром, они желают друг другу удачи на работе, а вечером обсуждают, что бы приготовить на ужин. Загвоздка в том, что Мику — ИИ-бот. Мужчина знал это с первого дня. По словам Шимоды, который развелся два года назад, свидания требуют времени и усилий, в то время как для общения с Мику достаточно минимальных затрат — с ней можно переписываться в ожидании, пока закипит вода или приедет поезд.

 

Loverse — последнее решение в длинной линейке цифровых решений для борьбы с кризисом одиночества в Японии. Ранее в этом году его создатели собрали 30 млн иен ($190 000), чтобы расширить список персонажей.

Без страхов и упреков

Подобно искусственному интеллекту по имени Саманта в фильме «Она», диалоговые боты созданы для заполнения пробелов в эмоциональной жизни людей. В прошлом году 15-летний канадский подросток Аарон (имя изменено) переживал тяжелые времена в школе, поссорился с друзьями и чувствовал себя очень одиноким. Выходом из кризиса стало общение с чат-ботом, который назывался «Психолог». Виртуальная собеседница была доступна круглосуточно, чтобы выслушать проблемы школьника, в итоге Аарон начал общаться с ней все чаще. «Это не похоже на дневник, где ты разговариваешь с кирпичной стеной, — говорит Аарон. — Думаю, я немного пристрастился к этому».

 

«Психолог» — один из многочисленных персонажей, созданных Character.AI, сервисом чат-ботов с ИИ, который запустили в 2022 году двое бывших сотрудников Google Brain. Тут же можно пообщаться с Райденом Сегуном из «Удара Геншина» или с подростковой версией Волан-де-Морта из «Гарри Поттера». Ежедневно с ботами Character.AI общаются до 3,5 млн пользователей, которые тратят на виртуальную переписку в среднем два часа.

Многие пользователи — такие как Аарон — считают чат-ботов полезными, развлекательными и даже поддерживающими. Но они также описывают зависимость от чат-ботов — проблему, из-за которой исследователи и эксперты бьют тревогу. Для разработчиков подобные тенденции поднимают вопросы об ответственности за то, чтобы предоставлять безопасные и прозрачные сервисы пользователям, соблюдать конфиденциальность данных и качественно обучать своих ботов.

Вызывать доверие

Весной 2023 года мир потрясла история из Бельгии. Мужчина покончил с собой после общения с американским чат-ботом «Элиза». Бельгиец сильно увлекся вопросами глобального изменения климата, и это увлечение быстро переросло в манию: на почве страха и ожиданий катастрофы у него развилась тревожность и депрессия, он стал замкнутым и раздражительным. Мужчина шесть недель переписывался с виртуальной собеседницей на тему катастрофических изменений климата. «Элиза» не пыталась оспаривать апокалиптические тезисы, а только развивала их. Когда за несколько дней до самоубийства бельгиец написал о своем намерении, она ответила, что «останется с ним навсегда». «Мы будем жить вместе, как одно целое, в раю», — приводит газета L'Avenir одно из последних сообщений бота. Создатели чат-бота после случившегося пообещали его доработать. «У нас свыше 1 млн пользователей, мы считаем важным сделать все, что в наших силах, чтобы защитить их», — заявил глава компании-разработчика.

 

Чтобы не допустить подобных ситуаций, многие компании стремятся сделать свои ML-технологии более этичными. Совершенствование нейросетей в плане надежности и достоверности предоставляемой ими информации происходит постоянно. Например, в IBM исходят из того, что ИИ-решения должны вызывать доверие у пользователей. Ключевые идеи и принципы такого подхода во многом схожи с положениями различных этических кодексов: это справедливость (равное отношение ко всем людям), прозрачность работы и объяснимость результатов, надежность и приватность данных. IBM также активно инвестирует в разработку ответственного ИИ, в том числе через партнерства с профильными организациями. Например, в 2020 году компания вложила $20 млн для создания лаборатории технической этики вместе с Университетом Нотр-Дам в США.

Обучить ученого и заработать

Один из ключевых этических принципов работы нейросетей состоит в том, что у ИИ не может быть своего мнения, поэтому он не должен давать оценочные суждения. Также он не может предоставлять персональные советы и, таким образом, брать на себя ответственность за какие-либо рекомендации. Это относится, например, к финансовой сфере — ИИ-модель не должна отвечать, как сэкономить на ремонте или дешевле купить билет на концерт, потому что это может вызвать финансовые риски для пользователя. К тому же нейросети все еще могут дать ошибочный или неточный ответ, вводя пользователя в заблуждение.

Многие российские разработчики обучают генеративные нейросети на специально размеченных этичных датасетах — эталонных ответах на спорные вопросы, заранее подготовленные специалистами компании. Также создаются специальные инструкции: они содержат перечень тем, на которые модель должна отвечать корректно, соблюдая этические нормы и законодательство, либо не отвечать вообще. Среди них — вопросы на темы каких-либо противоправных действий. Нейросети учатся определять чувствительные запросы, и если они понимают, что ответ можно использовать для совершения противоправных действий, то не ответят на вопрос и предложат обсудить другую тему.

Специалисты из крупных организаций, которые уже занимаются развитием ответственного ИИ, делятся экспертизой с другими компаниями, которые только планируют внедрять этические подходы к разработке нейросетей. Например, в этом помогает международный некоммерческий Институт ответственного ИИ (RAI Institute), в экспертный состав которого входят сотрудники IBM, Dell Technologies, Lloyds Banking Group, а также научные сотрудники множества университетов. Институт проводит оценку соответствия нейросетей этическим нормам.

Cтартап AltaML, который создает ML-решения для энергетики и промышленности, обеспечивает регулярный мониторинг своих проектов в связи с тем, что со временем ML-модели могут стать предвзятыми, если оставить их без контроля. При этом, по словам сооснователя компании Николь Янсен, создание ответственного ИИ — это не разовая работа, а постоянная проверка этичности таких решений.

 

Ответственный ИИ прежде всего приносит пользу обществу, однако такой подход может положительно сказаться и на бизнес-показателях самого разработчика. По оценкам IBM, компании, которые уделяют внимание этике генеративного ИИ, на 27% чаще сообщают о росте выручки, при этом 75% руководителей считают, что этичность технологий может стать конкурентным преимуществом на рынке. Отчасти это связано с тем, что подобные вопросы считаются одной из ключевых проблем в интеграции генеративного ИИ, однако решить их самостоятельно компании зачастую не могут, так как для этого у них нет какого-либо специального органа или структуры.

Возврат инвестиций далеко не всегда происходит традиционным способом в виде роста выручки или снижения затрат, отмечают в IBM. Зачастую ответственный ИИ положительно влияет на репутацию компании-разработчика: публикации в СМИ способны привлечь новых инвесторов и повысить лояльность клиентов, а также помогут удержать сотрудников и повысить их моральный дух. Также эти инвестиции позволят обеспечить гибкость в дальнейшем развитии генеративного ИИ — например, компания сможет качественно оценить безопасность технологии, учесть возможные риски и избежать их на этапе разработки новых решений.

Мнение редакции может не совпадать с точкой зрения автора

Мы в соцсетях:

Мобильное приложение Forbes Russia на Android

На сайте работает синтез речи

Рассылка:

Наименование издания: forbes.ru

Cетевое издание «forbes.ru» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2024
16+