Выставка подделок: почему законопроекты о дипфейках сырые
Право голоса
Вопросы к тому, как регулировать голос, появились уже давно. К примеру, в США на протяжении XX века эта тема часто затрагивалась в судебной практике. Суды разрешали конфликты между актерами и музыкантами с одной стороны и компаниями, которые имитировали их образы, стиль речи и пения — с другой. Результат подобных исков — сейчас в США действуют особые нормы в отношении охраны голоса, закрепленные на уровне законодательства или судебной практики штатов.
В российском праве тоже уже есть инструменты, при помощи которых можно защищаться от незаконного использования своего голоса. В частности, использование голоса человека без его разрешения может быть признано нарушением прав на интеллектуальную собственность (ИС). Но только при условии, что человек записал свою речь, а нарушитель незаконно переработал запись. Сам по себе голос в таком случае не будет охраняться, защищена будет только сама запись, которая и признается ИС. Это создает большие трудности в ситуации, когда нарушитель использует нейросеть, так как нейросети могут совсем не использовать фрагменты оригинальной записи голоса, а лишь проанализировать ее и научиться подражать. Поэтому тяжело сказать, происходит ли переработка записи с точки зрения права и, соответственно, есть ли нарушение.
Помимо этого, в некоторых ситуациях использование голоса может порочить честь и достоинство или деловую репутацию обладателя голоса. К примеру, если голос или его нейросетевая имитация были использованы в рекламе нелегальных букмекерских контор или онлайн-казино. Однако использовать такую стратегию защиты, очевидно, не получится, если урон чести, достоинству или деловой репутации человека не был нанесен.
Как видно, действующие способы защиты не лишены недостатков. На фоне этого законопроект о дополнении ГК статьей, посвященной охране голоса гражданина, выглядит логичным.
Сейчас в ГК есть норма, посвященная охране изображения гражданина. Так, запрещено использование изображения человека без его согласия за исключением случаев, когда: человек позировал за плату, человек не является основным объектом съемки (к примеру, он попал в кадр при трансляции футбольного матча), а также когда изображение используется в публичных интересах (в частности, в связи с розыском пропавшего без вести). Гражданин, чье изображение использовано без разрешения, вправе потребовать уничтожить материальные носители с его изображением или удалить его из интернета, а также запретить незаконное распространение и использование. Норма об охране голоса, предложенная в законопроекте, копирует положения уже имеющейся нормы об охране изображения.
В целом, решение проблемы защищенности голоса выглядит удачно. В отличие от защиты голоса через охрану прав на запись, а также охрану чести, достоинства и деловой репутации, при принятии законопроекта голос будет охраняться сам по себе как особое нематериальное благо гражданина. Станет проще доказывать нарушение прав на голос, и большее количество действий, чем сейчас, будут считаться нарушением прав на него. Это позволит закрыть точки неопределенности, связанные с применением технологий дипфейк для голосового синтеза.
При этом к законопроекту остаются концептуальные вопросы. В частности, непонятно, будет ли защищаться только голос человека в «оригинальном» состоянии, то есть то, как человек говорит в своей обычной речи, или же охраняться будут также голосовые образы, исполняемые актерами, музыкантами, блогерами и другими творческими личностями. К примеру, в США суды неоднократно признавали нарушения именно на подобные образы, так как множество исков по незаконному использованию голоса подавали знаменитости.
Этот вопрос тесно связан и с доказыванием самого факта использования голоса определенного лица. В случае наличия определенного «образа», который узнаваем, либо при условии особых, отличительных черт голоса, вопросов меньше. Но когда нейросеть генерирует именно «собирательный» голос, существует вероятность сходства с одним или многими голосами разных людей. Суды в таком случае будут применять экспертизу, но готовы ли эксперты к проведению такой экспертизы, а суды — к оценке вероятности случайного сходства генерации и конкретного человека? Вопрос открытый.
Их опыт
Поправки же в УК о дипфейках вводят уголовную ответственность за клевету и мошенничество с использованием дипфейков. За клевету с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) потерпевшего, а также с использованием его биометрических данных, предлагается наказывать штрафом в размере до 1,5 млн рублей, арестом на срок до трех месяцев либо лишением свободы на срок до двух лет. За мошенничество с использованием дипфейка может, в частности, грозить штраф до 400 000 рублей или лишение свободы на срок до шести лет.
Можно сказать, что инициатива главы комиссии Совета федерации по информполитике Алексея Пушкова и председателя думского комитета по труду Ярослава Нилова (ЛДПР) соответствует общемировым трендам. Так, буквально на днях Совет ООН по вопросам ИИ выпустил окончательный доклад, в котором назвал дипфейки серьезной угрозой демократическим институтам, процессам (таким, как выборы) и общественному доверию в целом.
Меры по введению уголовной ответственности за использование дипфейков предпринимают во всем мире. К примеру, уголовная ответственность за создание и распространение дипфейков установлена в США как на федеральном уровне, так и в ряде штатов. При этом настоящее законодательство носит весьма фрагментарный характер, а ответственность за использование такой технологии наступает только в случае ее использования для оказания влияния на политические процессы (к примеру, для влияния на результаты выборов или обороноспособность страны). Кроме того, в настоящий момент на рассмотрении находится законопроект об ответственности за дипфейки (Deepfakes Accountability Act of 2023), который вводит штрафы за создание дипфейков для распространения без специального указания на использование этой технологии.
Китай также установил уголовную ответственность за публикацию дипфейков без маркировки поддельных аудио- и видеоматериалов в качестве таковых.
В Европе публикация дипфейков подпадает под Общий регламент по защите данных (General Data Protection Regulation), а также недавно вступивший в силу закон ЕС об ИИ (EU Artificial Intelligence Act (AI Act). Какой-либо отдельной уголовной ответственности только за создание и распространение реалистичных поддельных аудио- и видеоматериалов не установлено.
В Великобритании по Закону о безопасности в сети (Online Safety Act) уголовно наказуемо распространение порнографических материалов с использованием дипфейков.
Согласно пояснительной записке, разработать законопроект побудило «развитие компьютерных технологий», которое привело к «расширению возможностей по созданию видео- и аудиоматериалов на основе образцов изображений и голоса гражданина, искусственно воссоздающих несуществующие события». Современные программно-аппаратные комплексы, по мнению авторов законопроекта, позволяют создавать подделки, отличить которые от реальности неспециалисту «практически невозможно».
Вместе с тем законопроект вызывает ряд вопросов, связанных с применением норм УК.
Рождение путаницы
Во-первых, в существующем законодательстве понятия «дипфейк» нет, а предлагаемое в законопроекте определение повлечет путаницу на практике. Документ предлагает формулировку, которая по задумке должна охватывать технологию дипфейк: «… с использованием изображения или голоса (в том числе фальсифицированных или искусственно созданных) потерпевшего или иного лица, а равно с использованием биометрических персональных данных потерпевшего или иного лица».
То есть и законопроект самого термина «дипфейк» не содержит, и используемое описание дипфейка не в полной мере отражает его сущность. Оно не содержит указания на обязательный признак технологии — использование нейросетей. Без этого мошенничеством с использованием технологии дипфейк можно будет признать и случаи представления другим лицом с помощью грима, переодевания или мимикрию голоса.
Для сравнения — закон ЕС об ИИ (EU AI Act) содержит такое определение технологии deepfake: «Созданные или обработанные ИИ изображения, аудио- или видеоматериалы, которые похожи на существующих людей, предметы, места, субъекты или события и могут ошибочно показаться человеку подлинными или правдивыми».
Таким образом, предлагаемое определение технологии дипфейк как способа совершения ряда преступлений не выдерживает критики с точки зрения как его общего восприятия и влияния на последующую судебную практику, так и его точности.
Обманным путем
Во-вторых, использование дипфейка не изменяет общественную опасность содеянного, по сути, представляя собой обычный обман. В то же время иные преступления, которые могут совершаться с использованием дипфейка, инициаторы законопроекта не учитывают.
Использование дипфейка при совершении клеветы, кражи, мошенничества (в т.ч в сфере компьютерной информации), вымогательства, причинения имущественного ущерба путем обмана или злоупотребления доверием, по сути, сводится лишь к одному из видов обмана. Обман же, в свою очередь, уже является признаком этих преступлений.
В теории и практике уголовного права выделяются различные виды обманов, один из которых – обман в личности, часто используемый преступниками, чтобы взять заем на третье лицо. К примеру, при оформлении кредита могут использоваться поддельные документы, удостоверяющие личность, тем самым сотрудника банка вводят в заблуждение. В судебной практике сформировался устойчивый подход для квалификации подобных случаев: когда для похищения денег лицо выдавало себя за другое, представив при оформлении кредита чужой паспорт, ответственность виновного наступает по статье 159 УК РФ (мошенничество).
При этом думается, что разумные основания для усиления ответственности при совершении таких преступлений с использованием технологии deepfake как одного из видов обмана отсутствуют. Едва ли такие действия опаснее, чем предоставление подложного (либо чужого) паспорта.
В то же время текст законопроекта ограничивается довольно узким набором преступлений, тогда как дипфейки могут использоваться практически при совершении любого преступления, предусмотренного УК. Например, в публичных призывах к террористической и иной противоправной деятельности, заведомо ложных сообщениях об акте терроризма. Однако остальные составы преступлений законопроект оставляет без внимания. На это обоснованно обращает внимание и Верховный суд в своем отзыве. Кроме того, если законодатель исходит из повышенной общественной опасности совершения преступления с использованием этой технологии (в том числе обманных), разумно ввести этот способ в качестве отягчающего наказание обстоятельства в ст. 63 УК РФ.
Так, российское уголовное законодательство уже предусматривает такой способ совершения преступления, как совершение его с использованием форменной одежды или документов представителя власти. Согласно УК, это отягчающее наказание обстоятельство. Подобные «костюмированные» приемы преступников мало чем отличаются от аналогичных по существу приемов, но с использованием нейросети, и общественной опасности в сравнении с ними содеянному не добавляют. Более того, аналогичный довод использовался законодателем при недавнем ужесточении ответственности за «трэш-стримы».
Таким образом, в случае признания целесообразности усиления уголовной ответственности за использование дипфейков, что не бесспорно, законопроект требует существенной доработки. Во-первых, необходимо скорректировать терминологию, описывающую использование технологии. Во-вторых, следует оценить, какие преступления действительно требуют усиления ответственности при совершении их с использованием дипфейков, и проработать вопрос о введении этого способа в число обстоятельств, отягчающих наказание.
Мнение редакции может не совпадать с точкой зрения авторов