Как сгенерированный ИИ контент захватывает соцсети США в преддверии выборов
Избирательный штаб Валласа заявил, что видео было сгенерировано при помощи искусственного интеллекта (ИИ) и является подделкой, однако к тому моменту оно уже получило широкое распространение в сети. Двухдневный Twitter-аккаунт, в котором был выложен ролик, вскоре был удален. Невозможно точно сказать, повлияло ли это на поражение Валласа в политической борьбе против бывшего учителя и профсоюзного организатора Брэндона Джонсона, однако случившееся демонстрирует, как с помощью сгенерированного ИИ контента можно запятнать общественный дискурс во время предстоящих президентских выборов. Теперь соцсетям придется разбираться с последствиями, возникшими из-за появления фейкового контента, созданного нейросетями.
Справиться с этой проблемой будет непросто. Из-за отсутствия законов, регулирующих использование ИИ в политических кампаниях, соцсети сами определяют, какие дипфейки будут показываться пользователям в ленте. В настоящее время большинство платформ пытаются сформировать правила саморегулирования. «Эта проблема ставит под угрозу нашу демократию, — поделился профессор электротехники и информатики Калифорнийского университета в Беркли Хани Фарид с Forbes USA. — Я не заметил, чтобы соцсети воспринимали это всерьез».
В настоящее время у большинства крупнейших соцсетей отсутствует специальная политика в отношении контента, созданного нейросетями.
По словам представителя Meta (признана экстремистской и запрещена в России) Кевина Макалистера, когда на таких платформах компании, как Facebook и Instagram, контент помечается как «содержащий дезинформацию», то независимые фактчекеры проверяют его и предоставляют опровержение «поддельных или измененных аудио, видео или фотографий», независимо от того, был ли медиапродукт создан в обычном графическом редакторе или при помощи ИИ.
Аналогичным образом Reddit продолжит придерживаться своей политики против манипулирования медиаконтентом, которая распространяется на «кампании по дезинформации, фальсифицированные документы и дипфейки, направленные на введение в заблуждение пользователей». YouTube также будет удалять связанный с выборами контент, нарушающий политику платформы в отношении дезинформации, которая запрещает использование технически измененных изображений, призванных ввести пользователей в заблуждение и представляющих серьезную опасность или потенциальный вред.
В апреле владелец Twitter Илон Маск опубликовал обновление политики компании в отношении синтетических медиа и медийных манипуляций, заявив, что твиты могут получить специальную маркировку, если они содержат вводящую в заблуждение информацию, и платформа продолжит удалять тот контент, который может нанести вред отдельным лицам или сообществам. В политике компании также отмечается, что СМИ, созданные «с использованием алгоритмов искусственного интеллекта», будут подвергаться более тщательной проверке.
На данный момент TikTok является единственной крупной социальной медиакомпанией, которая имеет более комплексную политику, направленную на модерацию контента, сгенерированного ИИ.
В марте 2023 года TikTok объявил о новой «политике в отношении синтетических медиа», согласно которой пользователи, публикующие реалистичные видео, сгенерированные или измененные ИИ, обязаны четко указывать на использование такой технологии. Что касается предвыборного контента, то платформа запретит все сгенерированные ИИ изображения, которые демонстрируют общественных деятелей с целью получения политического одобрения.
В апреле TikTok начал удалять видео, не соответствующие новым правилам. У создателей контента есть выбор, где именно разместить дисклеймер об использовании ИИ: его можно указать в субтитрах, подписях или хештегах. На данный момент платформа автоматически не блокирует аккаунты, которые делятся недопустимым контентом, а просто выносит предупреждение.
Подобная прозрачность на платформах — первый шаг, предупреждающий пользователей о происхождении контента. Тем не менее этого может быть недостаточно для предотвращения распространения дезинформации. «Конечно, все равно найдутся злоумышленники, которые будут стараться обойти любые правила и стандарты», — считает руководитель исследований в интернет-обсерватории Стэнфордского университета Рене Диреста.
Диреста утверждает, что сохранение отделов обеспечения безопасности и достоверности информации является ключом к решению этой проблемы. Twitter, в частности, может столкнуться с трудностями во время следующих президентских выборов в США: с тех пор, как Илон Маск возглавил компанию, он сократил целые команды, ответственные за борьбу с дезинформацией, и расторг контракты с независимыми модераторами контента.
Распространение дезинформации давно является проблемой для соцсетей. Штурм Капитолия США 6 января стал доказательством того, как организованное в интернете движение привело к смертельным последствиям в реальной жизни. Тем не менее президентские выборы 2024 года в США станут первыми, когда предвыборные штабы и избиратели будут иметь доступ к мощным инструментам на основе ИИ, способным создавать правдоподобные фейки за считаные секунды.
«Дезинформация продолжает расти. Мы только подлили масла в огонь, представив миру генеративный ИИ и дипфейки», — подытожил Фарид.
Однако эксперты советуют не преувеличивать степень влияния контента, созданного ИИ, на ход следующих выборов.
«Если мы создадим впечатление, что стратегии по дезинформации с использованием дипфейков непременно добьются успеха, чего не произойдет, то мы рискуем подорвать доверие к демократическим системам», — считает Джош Голдштейн, научный сотрудник группы CyberAI в Центре безопасности и новых технологий Джорджтаунского университета (CSET).
Помимо соцсетей, поисковым системам также необходимо будет защищаться от контента, созданного ИИ.
Google уже исключил фальсифицированный медиаконтент из своих блоков знаний и выделенных описаний. В Google Ads медийные манипуляции также запрещены, а рекламодатели должны пройти процедуру проверки личности и включить в рекламное сообщение информацию о том, кем оплачивается реклама.
В мае гендиректор Google Сундар Пичаи объявил о разработке новой функции «об этом изображении», раскрывающей информацию о том, является ли найденное через поиск изображение сгенерированным ИИ. Кроме того, будет указано, когда конкретное изображение и другие подобные ему были впервые проиндексированы и где еще оно было замечено в интернете, включая новости, соцсети и сервисы для фактчекинга.
В дополнение Пичаи объявил, что Google скоро начнет автоматически наносить водяные знаки на изображения и видео, созданные с помощью собственных генеративных моделей, чтобы пользователи могли легко распознать синтетический контент.
Однако Google не единственная компания, которая решила внедрить подобный метод. Водяные знаки являются одним из основных требований проекта Adobe Content Authenticity Initiative (CAI) — альянса из более чем 200 медиа-, цифровых, технологических организаций и компаний в сфере производства контента, который способствует принятию отраслевого стандарта для обеспечения подлинности медиапродуктов.
Фарид пошел еще дальше и выдвинул идею сделать обязательным для создателей контента наличие маркировки, которая раскрывала бы, как был создан их медиапродукт. К примеру, в подписи может быть указано, что сопроводительное видео было записано на iPhone 14 и отредактировано с помощью ИИ-генератора изображений Adobe Firefly.
Остается нерешенным вопрос о том, смогут ли технические компании успешно осуществлять саморегулирование контента или потребуется государственное вмешательство. «Я бы хотел обойтись без вмешательства [государства], — признался Фарид. — Однако нам все еще требуется помощь».
Перевод Ксении Лычагиной