К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего броузера.

Эксперты назвали главные риски, связанные с развитием генеративного ИИ

Фото Getty Images
Фото Getty Images
Согласно данным исследования международного опыта регулирования генеративного искусственного интеллекта (ГИИ), которое провели компания «Яков и партнеры» и Альянс в сфере ИИ, Россия, наряду с США, Израилем, Сингапуром и ОАЭ, входит в число самых благоприятных стран для развития ГИИ. Кроме того, эксперты выделили пять самых релевантных рисков, связанных с развитием такого типа ИИ: рост объема некачественного контента, потенциальный вред от ложных ответов, негативное влияние на рынок труда, цифровое мошенничество и нарушение этических норм

Впереди планеты всей

Россия вместе с США, Израилем, Сингапуром и ОАЭ возглавила группу стран-лидеров, где, по мнению аналитиков, созданы наиболее благоприятные условия для развития технологий ИИ и привлечения инвестиций в эту область, следует из совместного отчета компании «Яков и партнеры» и Альянса в сфере ИИ (в числе членов — «Яндекс», «Сбер», MTS AI и т. д.), с которым ознакомился Forbes. Во вторую группу вошел Китай, который одновременно использует две модели: создает более комфортные условия для своих разработчиков и барьеры по выходу на внутренний рынок зарубежных поставщиков. В третью — ЕС, Канада и Бразилия, которые ставят целью максимальное снижение потенциальных рисков от внедрения и использования технологии, «что создает существенные препятствия для развития ГИИ», указывают эксперты.

По оценке аналитиков «Яков и партнеры» и Альянса в сфере ИИ, в России соблюдается баланс между жесткостью правил и свободой для развития технологий. С точки зрения регулирования в стране действуют как общие нормативно-правовые акты в отношении ИИ (в их числе — национальная стратегия развития ИИ до 2030 года и концепция развития регулирования отношений в сфере технологий ИИ и робототехники до 2024 года), так и отдельные механизмы саморегулирования. Так, 13 марта участники Альянса в сфере ИИ подписали декларацию об ответственной разработке и использовании сервисов на основе генеративного ИИ. Документ определяет этические принципы и рекомендации, способствующие ответственному отношению к ИИ.

То, что Россия входит в число передовых стран в области ГИИ, у экспертов не вызывает удивления. В интеграции отдельных IT-сервисов (например, в банковской системе, государственных сервисах, системах распознавания и безопасности) России нет равных, рассуждает старший консультант О2Сonsulting Алиса Еремина: «Уже подготовленная IT-среда, привычка граждан использовать разные инструменты, а также пул профессиональных IT-компаний являются благоприятной средой для развития новой технологии».

 

В России, помимо прочего, сформирована достаточно сильная математическая школа, обращает внимание генеральный директор Института AIRI, профессор Сколтеха Иван Оселедец: «Уровень экспертизы исследователей соответствует среднемировому и в некоторых тематиках его превосходит».

Но этого мало, полагают опрошенные Forbes участники рынка. Россия как один из лидеров в этой области должна активизировать усилия не только в разработке новых технологий, но и в углублении научных исследований, убежден руководитель лаборатории научных исследований ИИ T-Bank AI Research Сергей Колесников. Чтобы достичь успеха в этой гонке, необходимы значительные инвестиции, уверен он: «Это позволит создавать инновационные решения и повышать конкурентоспособность страны на международной арене». Колесников призывает обратить внимание на опыт Индии и Китая в стандартизации процессов разработки и внедрения ГИИ, технических и этических норм: «Это не только облегчит процесс взаимодействия и сотрудничества между странами, но и ускорит процесс принятия новых технологических решений на международном уровне».

 

Один из ключевых аспектов, который определяет нюансы регулирования ИИ в целом и ГИИ в частности, — это высокая скорость создания, развития и внедрения технологий, размышляет советник генерального директора Content AI Олег Сажин: «Они всегда будут развиваться быстрее, чем за ними будут успевать регуляторы, поэтому нормативно-правовая база должна обладать высокой гибкостью и адаптивностью. И это наиболее сложный момент для правовой сферы».

Перечень опасностей

Быстрое развитие ГИИ стало возможно благодаря отсутствию жестких ограничений, указывают эксперты. Как сам ГИИ, так и сервисы на его основе развиваются беспрецедентно высокими темпами. По данным исследования компании «Яков и партнеры» «Искусственный интеллект в России — 2023: тренды и перспективы», крупнейшие компании уже внедряют ГИИ в собственные процессы и продукты, и к 2028 году полный экономический потенциал ГИИ в России может достичь 0,8-1,3 трлн рублей.

Однако вместе с тем новые технологии формируют новые риски в области общественной безопасности, реагировать на которые отрасль должна «совместно с обществом и государством», говорится в исследовании. Возможность реализации рисков подтверждают первые широко известные инциденты. Например, в июне 2023 года в США адвокат использовал ГИИ для сбора сведений о прецедентах, доказывающих правоту его клиента, но не знал, что сервис может сгенерировать ложную информацию. В результате он предъявил суду несуществующие дела. Еще один случай произошел в феврале 2024 года в Китае, приводят эксперты пример в отчете: сотрудника финансовой службы транснациональной компании обманом заставили выплатить $25 млн мошенникам, которые выдавали себя за финансового директора этой организации, используя технологию дипфейк.

 

Проанализировав известные инциденты с участием ГИИ, эксперты выделили пять самых релевантных рисков, которые связаны с развитием генеративных ИИ-технологий: рост объема сгенерированного ГИИ некачественного контента, потенциальный вред от ложных ответов ГИИ, негативное влияние на рынок труда, цифровое мошенничество, нарушение этических норм.

Большинство этих рисков, по их мнению, можно минимизировать за счет маркировки генеративного контента, в том числе скрытой, а также создания сервисов для проверки наличия сгенерированных элементов и ответственного отношения к работе с технологией. В частности, в 2023 году семь иностранных компаний, Amazon, Anthropic, Google, Inflection, Meta (признана экстремистской организацией и запрещена в России), Microsoft и OpenAI, договорились о разработке и внедрении инструментов в области ответственного ИИ. В перечень этих обязательств входят в том числе маркировка сгенерированного контента и тестирование безопасности разработанных решений.

Учитывая опыт зарубежных стран и темпы развития ИИ в России, наиболее оптимальным представляется механизм саморегулирования, сохраняющий баланс между введением регуляторных правил и возможностями для развития технологий, делают вывод авторы исследования. Одной из частей такого подхода может стать постоянный мониторинг ситуации вокруг развития генеративного искусственного интеллекта в России и сбор обратной связи от пользователей, чтобы на ее основе улучшать их качество и правовые нормы, регулирующие работу сервисов. Вариантом для дальнейшего развития принципов саморегулирования в этой среде может быть внедрение определенных процедур комплаенса для разработчиков ГИИ-инструментов, допускает Олег Сажин.

Как работать с рисками

«Наиболее актуальным и «приземленным» на существующую действительность» риском Иван Оселедец считает цифровое мошенничество. «Он и понятнее с точки зрения механизмов проактивной митигации. С одной стороны, для нее необходимы стабильный мониторинг ситуации и развитие систем маркировки контента, в том числе цифровыми водяными знаками. С другой — массовое просвещение аудитории, и не только об абстрактных способах применения технологий ИИ в различных индустриях и социальных и экономических эффектах от него, но в большей мере о принципах работы ИИ, типологии и устройстве таких систем, о том, как именно можно пользоваться ими в повседневной жизни», — рассуждает он. Понимая принципы работы ИИ хотя бы на элементарном уровне, человек будет чувствовать себя увереннее, снизится уровень тревоги, полагает Оселедец.

В необходимости повышать цифровую и правовую грамотность населения убеждены все эксперты. «Пользователи должны знать о возможностях современных генеративных моделей, а также критически воспринимать контент и информацию, сгенерированную ИИ», — напоминает директор по продуктам «Наносемантики» Григорий Шершуков. Использование нейросетей на ежедневной основе — наша новая реальность, важно способствовать комфортному и безопасному встраиванию новых инструментов в жизнь людей, уверена Алиса Еремина.

 

Хорошей практикой может стать создание и распространение универсальных инструкций и обновление советов по цифровой грамотности с учетом развития ГИИ, продолжает Иван Оселедец. «К примеру, мошенники иногда используют сгенерированные видео с якобы лицом знакомого вам человека, который звонит по видеосвязи, — говорит он. — Помимо базового правила «задать вопрос, ответ на который может знать только этот человек», есть еще несколько простых способов вычислить дипфейк: попросить собеседника провести рукой перед лицом несколько раз, повернуться боком, задрать подбородок, улыбнуться, несколько раз моргнуть только одним глазом. В большинстве случаев цифровая маска начинает барахлить. О таких фактах нужно рассказывать».

Работодателям необходимо уделить внимание повышению информированности работников о рисках, связанных с применением ГИИ, рассуждает юрист, лидер практики Legal Tech юридической фирмы «Томашевская и партнеры» Дарья Фокина. «В отраслях, где технологии ИИ применяются сейчас наиболее часто (например, IT, телекоммуникационный и банковский секторы), может требоваться дополнительное обучение или даже переподготовка», — говорит она. Кроме обозначенных в докладе, очевидно, имеет значение риск несправедливой коммерциализации ИИ, где все деньги заберут гиганты, добавляет старший партнер юридической фирмы Verba Legal Александр Панов.

Еще один риск, работу над предотвращением которого надо, по мнению Ивана Оселедца, начинать сейчас, — прогнозируемый экспертами рост потребления электроэнергии. «Для поддержания энергоэффективности ЦОДов важно уделять больше внимания поиску новых, более оптимальных нейросетевых архитектур и альтернативных вычислителей, которые будут расходовать мощности более экономно», — объясняет он.

Мы в соцсетях:

Мобильное приложение Forbes Russia на Android

На сайте работает синтез речи

иконка маруси

Рассылка:

Наименование издания: forbes.ru

Cетевое издание «forbes.ru» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2024
16+