
РБК узнал о проекте регулирования ИИ с запретом на нейросети высокого уровня риска
Участники рынка, эксперты и депутаты обсуждают законопроект о госрегулировании ИИ. Он предусматривает запрет систем с «неприемлемым уровнем риска», маркировку контента, созданного ИИ, и ответственность разработчиков за вред, нанесенный нейросетями, выяснил РБК. Эксперты считают, что с регулированием ИИ не стоит торопиться
Юристы, представители консалтинговых компаний и участников рынка, развивающих искусственный интеллект (ИИ), разработали законопроект о регулировании ИИ. Об этом пишет РБК со ссылкой на пять источников, знакомых с инициативой, и текст проекта. Подлинность копии законопроекта (есть в распоряжении издания) подтвердили два собеседника в IT.
Документ обсуждался на заседаниях рабочих групп в Госдуме, в «Деловой России», а также на отраслевых дискуссионных площадках, рассказали собеседники РБК. Законопроект разработан для реализации Национальной стратегии развития ИИ до 2030 года, утвержденной феврале 2024 года, говорится в пояснительной записке к нему. Зампред комитета по информационной политике, член рабочей группы по ИИ в Госдуме (создана в апреле) Андрей Свинцов сказал, что в первую очередь отрегулируют маркировку того, что создается с помощью ИИ, но законопроекта в готовой редакции в Госдуме пока нет.
Представители аппарата правительства и Минцифры сказали, что к ним не поступал на рассмотрение такой законопроект. Законопроект в том числе предлагает ввести:
- понятие искусственного интеллекта, технологий ИИ и систем ИИ, а также разработчика, оператора и пользователя таких систем;
 - требования к «явной, недвусмысленной и легко идентифицируемой» маркировке систем ИИ, которую должен обеспечить оператор системы ИИ до каждого случая взаимодействия с пользователем (за исключением систем ИИ, используемых внутри организаций и в закрытых процессах);
 - классификацию систем ИИ по уровню потенциального риска (неприемлемый, высокий, ограниченный и минимальный);
 - запрет на разработку и применение систем ИИ с неприемлемым уровнем риска;
 - обязательную госрегистрацию и сертификацию для систем с высоким уровнем риска (в здравоохранении, транспорте, финансах, правоохранительной деятельности и других сферах);
 - добровольную сертификацию и системы внутреннего контроля качества для систем ИИ с ограниченным уровнем риска;
 - ответственность за причинение вреда жизни, здоровью или имуществу для лиц, участвующих в разработке и эксплуатации систем (кроме случаев, когда вред возник из-за нарушения правил эксплуатации системы и в нескольких других);
 - обязательное страхование ответственности операторов систем ИИ с высоким уровнем риска.
 
Для определения владельца права на результат интеллектуальной деятельности, созданный с использованием ИИ, предлагается оценивать, был ли существенным творческий вклад человека: если такой вклад был, то исключительное право будет за создателем. Если вклада не было, то право перейдет к оператору системы ИИ (на 50 лет). Проект предусматривает выполнение его требований в течение года после вступления закона в силу и обязательную сертификацию систем ИИ с высоким риском, созданных до принятия закона, за два года.
Собеседник РБК в одном из разработчиков ИИ напомнил, что ранее в правительстве заявляли о преждевременности регулирования этой технологии. Он предупредил, что «чрезмерное и поспешное регулирование приведет к замедлению развития стратегически важной отрасли». В Евросоюзе закон об ИИ привел к тому, что лидеры рынка сокращают присутствие в регионе, а собственные конкурентоспособные решения не появляются, отметил источник издания.
Введение регулирующих норм целесообразно «только после определенной стабилизации процессов и формирования проблематики для урегулирования в законодательной плоскости», отметил директор по цифровым технологиям «Ростелекома» Роман Хазеев. По его словам, все видят растущее применение дипфейков и сложности с различением подлинной и выдуманной информацией.