К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

Правила наши, контроль — за вами: зачем создатели ИИ просят себя ограничивать

Фото Getty Images
Фото Getty Images
Эксперты и представители крупнейших IT-корпораций, ИИ-стартапов и университетов мира выпустили совместное заявление о высоком риске угрозы от искусственного интеллекта для человечества на глобальном уровне. Они сравнивают потенциальную опасность таких технологий с ядерной войной и пандемиями. Что может означать такой призыв, зачем ученые просят контролировать исследования и стоит ли пугаться громких фраз? Ведущий научный сотрудник Института искусственного интеллекта AIRI и профессор НИУ ВШЭ, кандидат физико-математических наук Дмитрий Ветров постарался осмыслить тезисы коллег в колонке для Forbes

Что за заявление и кто его подписал

30 мая на сайте некоммерческой организации Center for AI Safety («Центр безопасности ИИ») появилось заявление следующего содержания: «Снижение риска вымирания из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерные войны». Его подписали представители Google, Microsoft, OpenAI, Stability AI и ряда профильных компаний, а также исследователи из университетов Гарварда, Оксфорда, Беркли, Принстона, Стэнфорда и т. д. 

Принципиальное отличие от нашумевшего в марте призыва заморозить развитие больших языковых моделей на шесть месяцев заключается в том, что авторы заявления задаются целью «открыть дискуссию». Зачем сравнивать риски от ИИ с глобальными катастрофами? Чтобы привлечь внимание как можно большего количества людей и к проблеме регулирования ИИ, и к самой организации «Центр безопасности искусственного интеллекта».

Заявление можно трактовать как попытку обозначить потребность в единых международных правилах и разработке протоколов безопасности ИИ. Это отнюдь не означает, что человечество находится на грани пропасти и уже завтра нас может поставить под контроль «умная машина». Однако бурное развитие больших языковых моделей показывает, что ученые постепенно приближаются к созданию AGI (Artificial General Intelligence, сильный искусственный интеллект). Это актуализирует ряд вопросов о том, как взаимодействовать с подобными моделями. Например, что делать, когда ИИ станет умнее человека? Ведь когда коммуницируют два интеллектуальных субъекта, и один из них значительно умнее другого, более умный получает пространство для манипуляций. В отличие от угроз, о которых мы привыкли говорить в парадигме правового регулирования и риск-менеджмента, такие вопросы подразумевают другой, более социальный характер.

 

Зачем ученые просят себя контролировать

Реакции бюрократических систем неизбежно запаздывают, когда речь идет о быстроразвивающихся процессах. Много времени может уйти на создание правил и согласование протоколов, которые на момент реализации могут потерять свою актуальность. Именно поэтому ученые стараются привлечь внимание общественности и государственных структур к необходимости заняться фундаментальными проблемами безопасности ИИ уже сейчас.

Исследователи, которые разрабатывают ИИ, лучше понимают весь спектр потенциальных рисков. Сами правила и протоколы безопасности ученые смогут разработать самостоятельно. Но вот когда они будут разработаны, потребуется внешняя сила, чтобы контролировать их повсеместное исполнение. Любой отдельный ученый способен самостоятельно ограничить себя, но как убедиться, что другие будут делать то же самое? Как получить гарантию того, что конкуренты не пойдут вперед, пока ты ограничиваешь пространство поиска новых идей? В теории игр это называется дилеммой заключенного: если нет контроля или взаимного доверия, игроки стремятся выгодно «нарушить правила» и получить преимущество перед теми, кто эти правила старается соблюдать. В итоге правила нарушают все, и это приводит к общему проигрышу относительно ситуации, когда все бы строго следовали правилам.

 

Среди подписантов заявления можно увидеть управленцев из технологических гигантов Google и Microsoft. Многие задаются вопросом о том, с чего бы коммерческим структурам сознательно ограничивать свободу потенциально прибыльной разработки и настоящего ноу-хау. На самом деле в этих организациях работают такие же специалисты в области компьютерных наук, как и в университетах. Они также прекрасно осознают уровни риска технологий и чувствуют потребность в наличии универсального свода правил.

В любом случае не стоит воспринимать это заявление как призыв к полной остановке развития технологий ИИ. Скорее, уместно говорить о призыве замедлить темпы текущего взрывного развития, уделяя больше внимания оценке рисков и учитывая их на этапе создания, а не на этапе эксплуатации технологий.

Кто должен контролировать ученых

Вероятнее всего, подписанты, среди которых отметился и СЕО OpenAI, который ранее уже предлагал создать агентство по лицензированию больших ИИ-моделей, надеются создать регулятор. Очевидно, что он должен быть межгосударственным.

 

Стран в мире намного меньше, чем ученых. Им проще договориться, тем более что риски от ИИ носят общий характер и не привязаны к отдельным территориям. Государства могут принять правила такого регулятора и помогать контролировать их исполнение внутри своей юрисдикции, поскольку «тайно» создать модель, способную приблизиться к уровню сильного искусственного интеллекта, невозможно. Исследования в области обучения больших моделей ИИ не делаются «в гараже» — для них необходим доступ к большим вычислительным мощностям, нужны дата-центры, квалифицированные разработчики и т. д.

Возможным вариантом решения проблемы могло бы стать создание небольшого числа мировых исследовательских центров наподобие Европейского центра ядерных исследований. В них были бы представлены ученые из всех стран — лидеров в области технологий ИИ, а сами страны обязались бы соблюдать правила регулятора. В этих центрах с соблюдением всех протоколов безопасности могли бы разрабатываться новые технологии и модели сильного ИИ. Кроме того, центры могли бы контролировать друг друга, обмениваясь инспекциями, и представлять отчеты о своих исследованиях в научных журналах и на конференциях. Университеты продолжили бы заниматься разработкой моделей «слабого» ИИ для решения отдельных задач. Разумеется, необходимым условием для такого сценария является освобождение этих центров от геополитических конфликтов между государствами и готовность вести совместную работу на благо всего человечества, как это происходит, например, в исследованиях космоса.

Не бояться, а изучать и обсуждать

Если вычеркнуть из уравнения страшные слова о катастрофах и пандемиях, в сухом остатке и без того короткого заявления останется главное: призыв к созданию дискуссионного клуба, который смог бы выработать правила, пригодные для внедрения на межгосударственном уровне. Чтобы нормы и правила были приняты исследовательским сообществом, их должны верифицировать пользующиеся авторитетом в области ИИ ученые, а также специалисты из смежных дисциплин, включая гуманитарные науки. Сами протоколы безопасности могут быть созданы благодаря поисковым исследованиям в области интерпретабельного (функционально совместимого) ИИ, безопасного ИИ и этичного ИИ. И это не отвлеченные фразы, а названия конкретных научных направлений, активно развивающихся в настоящий момент в мире, в том числе и в России.

Мнение редакции может не совпадать с точкой зрения автора

Мы в соцсетях:

Мобильное приложение Forbes Russia на Android

На сайте работает синтез речи

Рассылка:

Наименование издания: forbes.ru

Cетевое издание «forbes.ru» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2024
16+