Искусственный разум в законе: как найти баланс в регулировании ИИ
Попались в нейросеть
31 октября 2024 года, в канун Дня всех Святых, сотни жителей Дублина пришли на парад по случаю Хеллоуина. Однако собравшимся пришлось разойтись: власти города не планировали никакого парада. Оказалось, на мероприятие людей созвал ИИ, сгенерировав новость, быстро разошедшуюся по местным пабликам.
Это один из безобидных примеров работы технологий ИИ, которые могут привести к намного более серьезным последствиям. Например, в 2023 году на Amazon в продаже появились книги для начинающих грибников — с советами, как отличить съедобные грибы от несъедобных. Пользователи не знали о том, что тексты в книгах созданы нейросетью. Об этом стало известно, лишь когда начали происходить реальные отравления грибами тех, кто доверился «нейросетевому идентификатору».
Многочисленные ошибки ИИ, манипулирование сознанием, мошенничество, дискриминация, создание «цифровых клонов» — только часть угроз, вызывающих у людей страх «восстания машин», каждый день подкрепляемый лентой новостей, а то и заявлениями самих разработчиков.
На этом фоне в последние годы международные организации и регуляторы в разных странах все чаще стали говорить о необходимости формирования так называемого «доверенного ИИ», то есть ИИ, безопасного в самом широком значении слова, когда технологии, используемые при создании и обучении нейросетей, должны обеспечивать надежность, эффективность, подотчетность, прозрачность, безопасность, конфиденциальность, продуктивность и этичность их использования.
Чтобы технологии ИИ были именно такими, на национальном и международном уровнях должны быть установлены требования и стандарты, позволяющие обеспечить жизненный цикл разработки доверенных технологий.
Международный опыт
Еще в 2022 году ООН провозгласила требование проводить оценку ИИ на всех этапах жизненного цикла на предмет этичности его использования. Международные профессиональные организации (ОЭСР — Организация экономического сотрудничества и развития, IEEE — Институт инженеров электротехники и электроники) разработали ряд стандартов в части обеспечения прозрачности систем ИИ.
Немногие страны могут похвастаться утвержденными нормативными положениями и стандартами по разработке и использованию доверенных технологий ИИ на национальном уровне. Опыт Китая, США и ЕС — наиболее показательный пример оперативных действий в этой области. Но если каждое из государств провозглашает приблизительно одинаковые принципы функционирования доверенного ИИ, прежде всего безопасность, прозрачность, этичность, эффективность и продуктивность, то механизмы их реализации, как правило, разные.
Так, ЕС пошел по пути исключения взаимодействия пользователя с теми системами ИИ, которые несут в себе наибольшие риски нарушения прав и свобод: возможности применения удаленной биометрии, распознавания эмоций и т.д. Использование же незапрещенных технологий строго регламентировано и стандартизировано, например системы с высокой степенью риска могут применяться только после оценки и тестирования по заранее определенным параметрам.
По иному, но тоже весьма осторожному пути пошел Китай, который первым законодательно отрегулировал деятельность генеративного ИИ, приняв соответствующие положения в августе 2023 года. Они обязали всех разработчиков регистрировать свои ИИ-продукты, если они обладают «свойствами формирования общественного мнения или способностью к социальной мобилизации». Кроме того, установлен ряд требований к прозрачности, точности и надежности сервисов генеративного ИИ, а поставщики ИИ-технологий должны проверять модели на соответствие основным социалистическим ценностям.
В России основным документом, комплексно регулирующим вопросы создания и применения систем ИИ и четко определяющим курс на создание доверенных технологий, является Национальная стратегия развития искусственного интеллекта (утверждена указом президента №490 от 10 октября 2019 года). Она предусматривает, что доверенные технологии ИИ должны быть разработаны «с учетом принципов объективности, недискриминации, этичности», должны исключать при их использовании «возможность причинения вреда человеку и нарушения его основополагающих прав и свобод, нанесения ущерба интересам общества и государства».
Из шагов, определяемых стратегией как основные на пути внедрения доверенных технологий, на мой взгляд, важно выделить:
- расчет индекса использования технологий ИИ по итогам мониторинга и применение его в качестве единого критерия для координации деятельности по внедрению доверенных технологий;
- формирование реестра апробированных технологий ИИ и размещение их на платформе «ГосТех»;
- сертифицирование решений в области ИИ и внедрение в федеральных органах власти только систем, прошедших сертификацию.
В целом предлагаемый государством алгоритм действий по внедрению доверенных технологий ИИ отражает наметившиеся в стране тенденции регулирования:
- риск-ориентированный подход, который впоследствии может включить в себя разделение не только технологий, но и самих систем ИИ в зависимости от создаваемых ими уровней угроз;
- необходимость проведения предварительной оценки применяемых технологий по заданным параметрам и метрикам;
- создание реестровой модели разрешенных к использованию технологий, с перспективой необходимости их последующей сертификации.
Подобные тенденции характерны, как мы увидели, и для европейского регулирования, и частично для Китая. Вместе с тем введение ограничений на использование ИИ-технологий, равно как и формирование дополнительных требований к ним в части предварительного тестирования, прохождения сертификации и оценок со стороны государства, неизбежно влечет за собой замедление роста скорости внедрения технологий, увеличение организационных затрат на такое внедрение, бремя которого традиционно ложится на разработчика.
В поисках баланса
Осознавая всю важность формирования доверенной среды в сфере использования ИИ, не стоит упускать из виду показатели экономической целесообразности. Сейчас рынок ИИ растет на 20% ежегодно, его объем со $185 млрд в 2023 году, по прогнозам, может достичь почти $1 трлн в 2027 году.
В минувшем сентябре руководители 20 компаний обратились с открытым письмом к регуляторам Евросоюза, в котором предупредили, что действующие нормы в сфере ИИ могут существенно ограничить инновационный потенциал ЕС и лишить его ожидаемых экономических преимуществ.
Соблюдение баланса между контролем за развитием ИИ-технологий и свободой такого развития — важная задача при создании регуляторных механизмов для доверенного ИИ. При этом невозможно игнорировать тот факт, что внедрение доверенных технологий ИИ составляет непосредственный интерес для бизнеса, ведь именно доверенный ИИ способен развенчать основные страхи пользователей перед искусственным интеллектом, повысить их доверие к этим системам.
В стремлении взять под контроль развитие ИИ регуляторам определенно следует учитывать, что слишком жесткое регулирование неизбежно приводит к замедлению развития (в данном случае — развития технологий) и, как следствие, снижению их экономической эффективности.
А что, если не сбрасывать со счетов возможность саморегулирования? Пусть и частичного. Ряд компаний — мировых лидеров, будучи заинтересованными в клиентской лояльности, сами разработали и уже активно внедряют методики формирования доверенной среды ИИ. Возможно, регулируя доверенные технологии, и Россия могла бы пойти по пути использования рамочных механизмов, оставив конкретные методики и реестрирование на откуп тем, кто в это непосредственно вовлечен и заинтересован — компаниям, внедряющим технологии.
Мнение редакции может не совпадать с точкой зрения автора