К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего браузера.

Самоуверенный алгоритм: какие риски внедрения ИИ пока недооцениваются

Фото Axel Heimken / picture alliance via Getty Images
Фото Axel Heimken / picture alliance via Getty Images
Главную проблему алгоритмов ИИ можно сформулировать как парадокс: они обладают мощной предсказательной способностью, но при этом не в состоянии заглянуть хотя бы на шаг вперед. Чтобы не стать жертвой ошибочных решений, которые предлагает ИИ, в его разработке должны участвовать не только математики, но и менеджеры, социологи и экономисты, считает профессор РЭШ Иван Стельмах

За громкими спорами о достижении «точки сингулярности» искусственного интеллекта (ИИ) и необходимости запрета дальнейшего развития технологии теряются менее хайповые, но более важные риски. Если разобраться в том, как работает ИИ, часть опасений сойдет на нет: и по поводу восстания машин, и по поводу того, что нейросети уже завтра заменят всех в офисе. Однако мы обнаружим другие риски, которые могут оказать влияние на нашу жизнь уже сейчас. Поговорим об актуальных рисках ИИ и о том, как ученые, бизнес и общество могут совместно работать над безопасной социальной адаптацией искусственного интеллекта.

Реакция системы

За последние годы ИИ как продукт сделал огромный скачок — при общении с ChatGPT сложно поверить, что алгоритм по ту сторону экрана основывается исключительно на статистических закономерностях. При этом основная парадигма остается неизменной: большинство алгоритмов работают по принципу, который состоит из двух шагов:

  • Шаг 1. Нахождение статистических паттернов в исторических данных
  • Шаг 2. Применение найденных паттернов на новых данных

Рассмотрим простой пример — платформу видео-хостинга. Алгоритмы могут проанализировать историю просмотров всех пользователей (Шаг 1) и сделать персонализированные предсказания о том, какое видео понравится каждому пользователю (Шаг 2).

 

В чем же кроется риск широкого применения ИИ? Дело в том, что стейкхолдеры часто используют ИИ не для пассивного описания ситуации (какое видео просмотрит пользователь?), а для выбора активных действий (что поменять, чтобы улучшить платформу видеохостинга?).

Давайте вернемся к примеру. Очевидно, что менеджменту платформы недостаточно просто знать, какое видео пользователь посмотрит следующим. Они хотят изменить платформу так, чтобы пользователь проводил на ней больше времени. Предположим, в их распоряжении есть алгоритм, который умеет предсказывать вероятность просмотра видео по его заголовку. Что сделает менеджер? Правильно, начнет рекомендовать пользователям видео на основе предсказаний.

 

На первых порах все будет хорошо — пользователи заметят, что платформа стала лучше подбирать для них видео и будут проводить больше времени за их просмотром. Но пользователи — это не единственные обитатели платформы. В какой-то момент авторы контента поймут, что заголовок видео сильно влияет на его позицию в выдаче, и начнут заниматься кликбейтом. В результате заголовки видео перестанут совпадать с их контентом, и общий пользовательский опыт ухудшится.

Этот пример демонстрирует важный фактор, который нужно рассматривать при внедрении ИИ — реакцию системы. Конечно, кликбейт на платформе видеохостинга — не такая страшная проблема. Но если рассмотреть более чувствительные области, где может быть применен ИИ — образование, здравоохранение или правосудие — то можно представить такую реакцию системы, которая грозит уже серьезными социальными и экономическими последствиям. И это не абстрактный риск. Исследования показали, что внедрение алгоритмического помощника судей в США привело к дискриминации подсудимых по цвету кожи, в том числе потому, что судьи стали доверять алгоритму и менее внимательно рассматривать каждый кейс. 

Главную проблему алгоритмов ИИ можно сформулировать как парадокс: они обладают мощной предсказательной способностью, но при этом не в состоянии заглянуть хотя бы на шаг вперед. Именно здесь возникают риски, куда более вероятные, чем абстрактное «восстание машин».

 

Как работать с рисками

Чтобы понять, как избежать негативных последствий при использовании ИИ, нужно  рассмотреть два направления развития технологий на горизонте ближайших нескольких лет.

Развитие продуктов на основе ИИ. Технологии, которые существуют уже сейчас, открывают для бизнеса огромное пространство для инноваций: создание действительно полезных голосовых помощников, трансформация поисковых систем — это лишь несколько очевидных примеров того, что мы можем увидеть в ближайшем будущем.

Чтобы эти инновации не принесли с собой вреда, создателям продуктов важно хорошо знать все ограничения технологии. В ИИ должны разбираться не только математики и разработчики, но и аналитики, продуктовые менеджеры, руководители бизнеса и госслужащие. А это, в свою очередь, ставит новый вызов перед системой образования: наши университеты должны готовить не только сильных разработчиков ИИ-систем, но и управленцев, которые могут ответственно применять эти системы в бизнесе. 

Научный прогресс в области ИИ. С другой стороны, ученые продолжают работать над развитием AI, и хочется надеяться, что в будущем будут разработаны алгоритмы, которые не только хорошо описывают текущее состояние системы, но и предлагают действия, которые могут действительно улучшить ее.

Но чтобы активно улучшать систему, алгоритмы должны хорошо понимать социальный контекст, в котором они работают. Поэтому для того, чтобы обеспечить ИИ быструю и безболезненную социальную адаптацию, к исследованиям должны подключиться экономисты, социологи и эксперты в этике — специалисты, которые помогут математикам и разработчикам создать новые алгоритмы, которые лучше понимают наш мир.

 

Мнение редакции может не совпадать с точкой зрения автора

Мы в соцсетях:

Мобильное приложение Forbes Russia на Android

На сайте работает синтез речи

Рассылка:

Наименование издания: forbes.ru

Cетевое издание «forbes.ru» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2024
16+