Вирусный эффект: что объединяет эпидемии, вспышки насилия и фейки
Бенито Муссолини однажды сказал, что «лучше прожить один день львом, чем сто лет овцой». По мнению пользователя твиттера @ilduce2016, автором этих слов был Дональд Трамп. Этот пользователь-бот, созданный двумя журналистами интернет-таблоида Gawker, опубликовал несколько тысяч твитов, где Трампу приписывались слова Муссолини. В конце концов один из постов привлек внимание самого Трампа: 28 февраля 2016 года, сразу после четвертых праймериз у республиканцев, он ретвитнул цитату про льва.
Если одни боты в соцсетях ориентированы на массовую аудиторию, то другие обладают меньшим охватом. Эти ботыприманки призваны привлечь внимание конкретных пользователей и вызвать их реакцию. Помните, что каскады в твиттере зачастую начинаются с одной широковещательной передачи? Если вы хотите распространить сообщение, то для расширения передачи можно привлечь кого-то из инфлюенсеров. А поскольку многие вспышки сразу же затухают, полезно иметь бота, который будет повторять попытки: прежде чем Трамп ретвитнул цитату про льва, @ilduce2016 опубликовал ее больше двух тысяч раз. Создатели ботов, похоже, хорошо понимают, как эффективен этот подход. Публикуя сомнительный контент в 2016–2017 годах, боты в твиттере уделяли несоразмерно много внимания популярным пользователям.
Эту стратегию целенаправленного воздействия используют не только боты. В 2018 году, после массового убийства в средней школе Марджори Стоунман Дуглас в Паркленде (Флорида), появились сообщения, что стрелок был членом небольшой группы сторонников идеи превосходства белой расы из столицы штата Таллахасси. Но это была фальшивка. Ее придумали тролли с интернет-форумов, которым удалось убедить падких до сенсаций журналистов в правдивости этой версии. «Достаточно одной статьи, — заметил один пользователь. — И все остальные подхватывают историю».
Эффект снежного кома: можно ли предсказать хиты и бестселлеры
Исследователи, в том числе Уоттс и Найхен, отмечали, что в 2016 году доля информации, которую люди получали из сомнительных источников, была невелика — но это не значит, что проблемы не существует. «Думаю, на самом деле это важно, но не в том смысле, в каком кажется людям», — говорит Уоттс. Публикуя в твиттере ложные новости или сомнительные идеи, маргинальные группы не всегда нацеливаются на массовую аудиторию — по крайней мере, поначалу. Они часто выбирают мишенью тех журналистов и политиков, которые проводят много времени в соцсетях, с расчетом на то, что те подхватят идею и начнут транслировать ее широкой публике. Например, в 2017 году журналисты регулярно цитировали пользователя твиттера с ником @wokeluisa, который представлялся молодым выпускником политологического факультета из Нью-Йорка. На самом деле это была группа троллей из России: они избрали своей целевой аудиторией информационные агентства, рассчитывая завоевать доверие и распространять через них свои идеи. «Журналисты не только участвуют в манипуляциях, — отмечает Уитни Филлипс, специалист по электронным СМИ из Сиракузского университета. — Они сами становятся добычей дезинформаторов».
Как только какое-нибудь издание подхватывает историю, возникает эффект обратной связи, и ее начинают публиковать другие. Несколько лет назад я случайно испытал на себе этот эффект. Все началось с того, что я рассказал журналисту Times об одной математической странности в новой национальной лотерее (я тогда как раз дописал книгу о науке делать ставки). Два дня спустя эта история была опубликована. В день публикации, в 8:30 утра, я получил сообщение от продюсера передачи This Morning на канале ITV, который прочел статью. В 10:30 я уже выступал по национальному телевидению. Вскоре после этого мне написали с BBC Radio 4: они тоже видели статью и решили пригласить меня на главное дневное шоу. Затем подключились другие СМИ. В итоге моя аудитория разрослась до нескольких миллионов человек — от одного-единственного журналиста, которому я рассказал ту историю.
Без видимых повреждений: почему важно понимать психологию авторов насилия
Мой опыт был довольно необычным, случайным и безвредным. Но другие намеренно стараются использовать эффект обратной связи в СМИ. Именно так распространяется ложная информация — несмотря на то, что большинство людей избегают маргинальных сайтов. В сущности, это своего рода «отмывание» информации. Точно так же, как наркокартели прокручивают деньги через легальный бизнес, чтобы скрыть их происхождение, манипуляторы в интернете используют авторитетные источники, чтобы подкрепить и распространить свои идеи; в результате широкая публика узнает об этих идеях от известных людей или из СМИ, а не от анонимного аккаунта.
Такое отмывание позволяет влиять на дебаты по какой-либо проблеме и на освещение этой проблемы. За счет тщательного таргетирования и подкрепления манипуляторы создают иллюзию широкой популярности тех или иных политических взглядов или кандидатов. В маркетинге такую стратегию называют астротурфингом (AstroTurf — марка искусственного покрытия для стадионов, имитирующего траву. — Прим. ред.), поскольку она позволяет искусственно имитировать общественную поддержку. В этом случае журналистам и политикам труднее игнорировать историю, и рано или поздно она превращается в реальную новость.
Разумеется, влияние СМИ возникло не сегодня; давно известно, что журналисты способны формировать новостной цикл. В сатирическом романе «Сенсация» Ивлина Во, написанном в 1938 году, есть рассказ о знаменитом репортере Венлоке Джейксе, которому поручили освещать революцию. Но в поезде Джейкс проспал свою станцию и вышел не в той стране. Не осознав своей ошибки, он написал статью о «баррикадах на улицах, пылающих церквах, о пулеметной стрельбе, вторящей треску его пишущей машинки». Другие журналисты, не желая пропустить такое событие, приезжали и сочиняли аналогичные истории. Результат — паника на бирже, экономический кризис, военное положение и, наконец, революция.
«Люди стали очень хрупкими»: как Лиза Таддео написала книгу о реальных историях насилия
Конечно, Ивлин Во выдумал эту историю, но описанная им обратная связь в мире новостей действительно существует. И все же у современной информации есть ряд важных отличий. Прежде всего, это скорость, с которой она распространяется. За несколько часов никому не известный мем может стать главной темой для обсуждения. Другое отличие — стоимость распространения. Создание ботов и фейковых аккаунтов обходится довольно дешево, а подкрепление за счет политиков или новостных агентств — практически бесплатно. В некоторых случаях популярные фейковые статьи даже приносят рекламный доход. Кроме того, существует возможность алгоритмической манипуляции: если кому-то удастся использовать фейковые аккаунты для получения реакции, которая ценится алгоритмами соцсетей, — например, комментариев и лайков, — новость может войти в число популярных, даже если в реальности ее обсуждает мало людей.
Но что именно люди пытаются сделать популярным с помощью этих новых инструментов? С 2016 года манипулятивную информацию в интернете обычно называют фейковыми новостями. Однако пользы от этого термина немного. Рени Диреста, исследующая технологии, отмечает, что под фейковыми новостями на самом деле могут подразумеваться разные типы контента, такие как кликбейтные заголовки, теории заговора, ошибочная информация и дезинформация. Как мы знаем, кликбейт нацелен на то, чтобы люди просто посетили ту или иную страницу; ссылки зачастую ведут к реальным новостям. В теориях заговора, напротив, реальные истории искажаются: в них включается «тайная истина», которая может раздуваться или усложняться по мере развития теории. Под ошибочной информацией Диреста понимает ложный контент, которым делятся непреднамеренно. К этой категории также относятся шутки и розыгрыши, которые намеренно создаются как фальшивки, а затем распространяются людьми, принимающими их за чистую монету.
«Она знала, что должна быть ребенком и женщиной одновременно»: книга о том, как пережить насилие
И наконец, самый опасный тип фейковых новостей — дезинформация. Принято считать, что дезинформация нацелена на то, чтобы люди приняли ложь за правду. Но реальность несколько сложнее. В эпоху холодной войны агентов КГБ учили создавать противоречия в общественном мнении и подрывать доверие к новостям. Это и есть дезинформация. Вас не убеждают в правдивости выдуманных историй, а заставляют усомниться в самом представлении о правде. Задача — перетасовать факты таким образом, чтобы затруднить восприятие реальности. И у КГБ неплохо получалось: они умели не только сеять зерна сомнений, но и усиливать дезинформацию. «В старые добрые времена, когда агенты КГБ использовали эту тактику, их целью были популярные СМИ, — говорит Диреста, — поскольку они обеспечивали легитимизацию и сами заботились о распространении».
В последнее десятилетие прием успешно применяли несколько онлайн-сообществ. Один из первых случаев произошел в сентябре 2008 года, когда пользователь написал сообщение на форуме шоу Опры Уинфри. Он утверждал, что представляет широкую сеть педофилов, в которой состоит более 9000 человек. Но этот пост не стоило принимать всерьез: фраза «более 9000» (over 9000) — отсылка к мультсериалу «Жемчуг дракона Z», где этими словами воин оценивает силы противника, — была мемом с анонимного форума 4chan, изобилующего троллями. К удовольствию пользователей 4chan, Уинфри отнеслась к сообщению серьезно и прочла его в эфире.
По сути, интернет-форумы вроде 4chan, Reddit и Gab — это инкубаторы для заразных мемов. Вскоре после того, как пользователь публикует картинку или текст, появляется множество их новых вариантов. Эти новые, мутировавшие мемы распространяются и конкурируют со старыми; самые заразные выживают на форумах, более слабые исчезают. Это выживание самых приспособленных — процесс, аналогичный биологической эволюции. Конечно, речь не идет о тысячелетиях, которые имели в своем распоряжении патогены, но эта краудсорсинговая эволюция дает сетевому контенту значительные преимущества.
Один из самых успешных эволюционных трюков, который тролли довели до совершенства, заключается в том, чтобы сделать мем предельно абсурдным: так людям будет трудно понять, серьезен он или нет. С налетом иронии маргинальные взгляды распространяются лучше, чем без него. Если аудитория обидится, автор мема может сказать, что это была шутка; если же пользователи посчитают мем шуткой, они не будут его критиковать. Эту тактику используют группы, пропагандирующие превосходство белой расы. Неонацистский сайт Daily Stormer в руководстве по стилю рекомендует авторам придерживаться легкого тона, чтобы не отпугивать читателей: «оскорбления на расовой почве должны иметь полушутливый оттенок».
По мере того как мемы становятся все более заметными, они могут превращаться в эффективный ресурс для политиков, умеющих работать со СМИ. В октябре 2018 года Дональд Трамп использовал слоган «Jobs Not Mobs» («Рабочие места вместо бандитизма»), заявляя, что республиканцы выступают за развитие экономики, а не за поощрение иммиграции. Когда журналисты попытались найти источник этой фразы, выяснилось, что впервые она появилась в твиттере. Какое-то время она эволюционировала на форумах Reddit, стала запоминающейся и в итоге широко распространилась.
Маргинальный контент подхватывают не только политики. Слухи в интернете и ошибочная информация спровоцировали нападения на представителей национальных меньшинств на Шри-Ланке и в Мьянме, а также вспышки насилия в Мексике и Индии. В то же время кампании по дезинформации призваны столкнуть обе стороны конфликта. Сообщалось, что в 2016 и 2017 годах группы троллей из России создавали в фейсбуке мероприятия с целью организовать протестные акции ультраправых группировок и их противников. Общественное недовольство усиливает также дезинформация по конкретным темам, таким как вакцинирование; недоверие к науке добавляется к недоверию к властям и судебной системе.
Проблема распространения опасной информации не нова. Даже термин «фейковые новости» возник давно — он использовался еще в конце 1930-х, хотя и недолго. Но структура сетей в интернете способствует тому, чтобы процесс ускорялся, распространялся шире, а распознать фейки становилось все труднее. Информация, подобно некоторым вирусам, может эволюционировать, чтобы передаваться эффективнее. Что же с этим делать?