Действующие лица: как можно и нужно ли регулировать дипфейки
Как известно, дипфейк (deepfake, сгенерированная технологиями искусственного интеллекта подделка) — метод синтеза голоса и изображения, результаты применения которого на сегодня достигли такого уровня сходства с оригиналом, что его использование стало представлять опасность. В истории человечества часто технологии, разработанные с благой целью, становились предметом спекуляций мошенников. Радость общения с помощью электронной почты принесла нам спамерские рассылки, легкость создания веб-сайтов — фишинговые ссылки, удобство и скорость онлайн-банкинга — мошенничество с платежами и т. п.
Так стало и с дипфейками, которые были созданы для восстановления старых аудио-, фото- и видеозаписей, реалистичного дубляжа фильмов и упрощения кастинга актеров. Пока риски в основном были репутационными, типа наложения лиц голливудских звезд на лица героинь порнороликов, проблема решалась кулуарно, на уровне цеховых договоренностей и добровольных запретов. Но сегодня проблема достигла таких масштабов, что для ее решения требуется вмешательство государства.
Государство вполне способно добиться от производителей софта, позволяющего синтезировать голос и изображения, вставки в него специальных модулей, предотвращающих нелегальное использование его функций. Пример успешного регулирования полезных устройств, функции которых могут использовать мошенники, уже есть. Когда разрешающая способность копиров сравнилась с типографским качеством, американское правительство заставило производителей под угрозой недопущения на рынок оснастить его функцией, запрещающей делать качественные цветные копии банкнот. Попробуйте на цветном копире высокого разрешения скопировать долларовую купюру — на выходе вы увидите черный прямоугольник.
Технически встроить в софт отказ генерировать определенные лица и фразы несложно — надо лишь определиться с тем, что именно нужно запретить. К тому же большинство таких генераторов дипфейков требуют больших вычислительных мощностей и потому расположены в облачных сервисах — контролировать десятки облачных сервисов гораздо проще, чем миллионы копиров. Также можно заставить операторов облачных сервисов вставлять в искусственно созданное изображение невидимые человеческим глазом и неслышимые человеческим ухом, но машиночитаемые признаки того, что это дипфейк. Так же сейчас выглядят водяные знаки, защищающие авторские права.
Все же стоит поосторожнее относиться к публикации своих голосовых и видеоизображений, в том числе в частных переписках, — все эти данные «кормят» нейросети. Многочисленные челленджи (такие как «мои фото из 90-х») учат нейросети реалистично омолаживать и состаривать изображения лиц. Чем больше изображений в Сети, тем быстрее и реалистичнее можно будет сгенерировать дипфейк. Однако если человек является публичной персоной, то обнародовать свои образы и речи для него — часть продуманной пиар-кампании. Здесь есть и хорошая новость для него: если публичный человек совершил неблаговидный поступок, видео которого попало в Сеть, он всегда может объявить это свидетельство дипфейком.
Что же касается опасений, что дипфейки могут использоваться для обхода так активно собираемой сейчас биометрии, то до этого еще очень далеко. Дипфейки создаются для того, чтобы обмануть человеческие органы чувств, а биометрию считывают не люди, а компьютерные программы. Точная копия купюры может обмануть глаз, но не банкомат. Он «смотрит» на кусок бумаги не глазами, а сложным набором датчиков, и комбинирует результаты по специальному алгоритму. Поэтому иногда и происходят ложноположительные срабатывания, то есть легальная купюра не принимается банкоматом, потому что он счел ее подозрительной.
Даже в самых простых моделях смартфонов камеры и микрофоны способны записывать гораздо больше информации, чем слышит ухо и видит глаз. Что уж говорить о специальном оборудовании для сбора биометрии. Все системы, с помощью которых записывается и считывается биометрия, делаются избыточными. Информация записывается многократно с небольшими изменениями: как человек поворачивает голову, когда смотрит в камеру, говорит достаточно длинные слова, вы много раз разными краями прикладываете палец к датчику. Это помогает защититься от подделок, но не только от них, а еще и от ложноположительных срабатываний, если человек поправился, ушиб палец или же сорвал голос в караоке.
Просто сфотографировав человека или записав его голос, а тем более сгенерировав его по имеющимся фото или видеообразцам, пройти биометрическую аутентификацию невозможно. Алгоритмам противодействия копированию способов аутентификации больше полусотни лет: чтобы не быть сбитым дружественным огнем, самолеты обмениваются с ракетами сигналами «свой-чужой» в прямом эфире со времен Корейской войны, их легко можно записать и ретранслировать, но обмануть этим ракету не удавалось никому.
Технологии обхода биометрической аутентификации с помощью фото, 3D-масок и других шпионских штучек пока существуют только в голливудских блокбастерах. Это не значит, что стоит бездумно разбрасывать образцы своего голоса и изображений. Дипфейки уже могут обмануть ваших друзей и родственников, особенно не очень подкованных в изысках цифрового мира. Сгенерировать видео с популярным в 90-х сообщением «Мама, я сбил человека, срочно пришли денег» сегодня никакого труда не составляет.
Как не стать самому объектом манипуляций с дипфейками? Самый простой способ — при первой же нестандартной просьбе абонента прервать общение под вежливым предлогом (связь пропала: заехал в подземную парковку, зашел в лифт и т. п.) и связаться с абонентом самому и по уже известному вам контакту. Если по каким-то причинам вы опасаетесь прервать связь (допустим, абоненту дали якобы позвонить из больницы или полиции), задайте какой-нибудь вопрос, ответ на который знаете только вы двое. С близкими, особенно детьми и стариками, договоритесь о простом, абсурдном для них контрольном вопросе. Например, «Как зовут вашу собаку?» при том, что никакой собаки у вас нет. Будьте бдительны и поддерживайте эту бдительность в своем окружении.
Мнение редакции может не совпадать с точкой зрения автора