Яблоко раздора: почему Apple не борется с сексуальной эксплуатацией детей
Данный материал был обновлен, и теперь в статье указано, что бóльшая часть контента в iCloud, включая фотографии, шифруется на сервере и при передаче через функцию «стандартной защиты данных», хотя доступ к ключам шифрования у Apple сохраняется. В изначальной версии материала говорилось, что если пользователь не активирует функцию «расширенной защиты данных», то контент в iCloud остается не зашифрован.
Всю свою жизнь Джо Моллик мечтал стал богатым и известным онкологом, светилом в области противораковой терапии, человеком, который излечит это заболевание раз и навсегда. Донкихотские поиски 60-летнего мужчины ничего не дали, и он отдалился от близких. Чтобы заглушить боль одиночества, Моллик пристрастился к порнографии. А когда чувство одиночества обострилось, усилилась и тяга к порно — он стал искать материалы с сексуальной эксплуатацией детей.
Впервые поймав Моллика с поличным при загрузке подобного контента в мессенджер Kik в 2019 году, полицейские изучили его электронные устройства и обнаружили кучу аналогичных материалов из 2000 незаконных изображений и видеороликов с детьми, а также 800 файлов, которые указаны в ордере на обыск, с которым ознакомился Forbes, как «детская эротика». Следователи выяснили, что все записи были загружены и хранились в iCloud-аккаунте злоумышленника, хотя информацию об этом полиция получила совсем не от Apple. Сигнал подали из Kik ― Моллика задержали и приговорили его к двухлетнему сроку. Платформе на эти изображения, в свою очередь, указала программа от Microsoft под названием PhotoDNA, которая ищет материалы с сексуальной эксплуатацией детей по цифровым отпечаткам изображений.
То, что в Apple противозаконный контент никак не пометили, неудивительно — от мониторинга незашифрованных данных в iCloud на наличие материалов с сексуальной эксплуатацией детей компания давно отказалась. И хотя собственную криптографическую систему она разработала именно для этого, в конце 2022 года Apple решила ее не внедрять, что вызвало неоднозначную реакцию сторонников конфиденциальности данных и негодование тех, кто занимается вопросами детской безопасности. По словам пресс-службы корпорации, спорное решение продиктовано стремлением сохранить конфиденциальность пользователей ― то, за что самую богатую в мире компанию постоянно хвалят.
Тем не менее критики утверждают, что построить на базе своих сервисов стабильную и успешную систему реагирования на материалы с эксплуатацией детей калифорнийскому гиганту не удалось, и в содействии правоохранительным органам при задержании промышляющих этим преступников компания здорово отстает от конкурентов. Forbes ознакомился примерно с сотней федеральных исков, в рамках которых следствие обыскивало системы Apple, полагая, что они способствовали преступной деятельности, и выяснил, что в 2014–2023 годах фирменные системы использовались для хранения и передачи тысяч единиц материалов с сексуальной эксплуатацией детей. Но в отличие от других крупных игроков вроде Google и Meta (признана в России экстремистской и запрещена), которые сами сканируют свои сервисы на наличие подобного контента и ежегодно обеспечивают миллионы улик Национальному центру по поиску пропавших и подвергшихся насилию детей (National Center for Missing & Exploited Children) и органам правопорядка, Apple сообщает лишь о сотнях случаев, хотя пользовательская аудитория iCloud насчитывает сотни миллионов человек.
Внутри компании за 18 месяцев с момента анонсирования технологии по обнаружению контента с сексуальной эксплуатацией детей до отказа от нее прерывалась работа отдела доверия и безопасности. Из компании ушли оба руководителя по детской безопасности ― Мелисса Маррус Полински, проработавшая 10 лет директором по расследованиям и детской безопасности, а также директор по доверию и безопасности Маргарет Ричардсон. Уволились и два других управленца, которые были ключевыми сотрудниками в борьбе с распространением материалов с сексуальной эксплуатацией детей — директор по конфиденциальности Джейн Хорват и глава направления iCloud Майкл Эбботт. На просьбы дать комментарий никто не из них не ответил. В пресс-службе Apple делать заявление для Forbes отказались. Абхишек Боумик, которого двое бывших сотрудников корпорации называют ведущим инженером по разработке программного обеспечения для обнаружения контента с сексуальной эксплуатацией детей, тоже покинул компанию. Когда с ним удалось связаться, он заявил, что его работа над технологиями конфиденциальности в Apple была «пожалуй, самой высокой честью в карьере», но рассказывать о причине ухода из компании отказался.
Уход кадров оказался очень заметен. По мнению одного бывшего сотрудника Apple, когда компанию покинули Полински и Ричардсон, они оставили после себя «в организации довольно большую пустоту». Еще один сотрудник рассказывает, что группа, специализировавшаяся на защите детей, стала слишком обширной и роли в ней перераспределялись и назначались членам других команд. По словам одного осведомленного источника, бóльшую часть проекта перевели в отдел разработки по конфиденциальности.
Данное подразделение сейчас возглавляет Эрик Нойеншвандер, давний технический руководитель Apple. Недавно его назначили директором по конфиденциальности и детской безопасности ― на предыдущих должностях он в основном отвечал за разработку программного обеспечения. Вместе с ним работают Чак Гиллингэм, бывший заместитель окружного прокурора Санта-Клары, и Рубен ван дер Дюссен, разработчик в сфере конфиденциальности, ранее работавший в некоммерческой организации Thorn, которую для борьбы против материалов с сексуальной эксплуатацией детей учредил Эштон Катчер. Сотрудники отдела доверия и безопасности отчитываются перед Майком Торнберри, который бóльшую часть своей 23-летней карьеры в Apple отвечает за продажи и Apple Pay.
Apple уже долгое время твердит, что конфиденциальность ― это фундаментальное право человека. Известно, что ранее компания отказалась сделать в iOS лазейку для ФБР, с помощью которой можно было бы обходить несколько важных функций безопасности и дать правоохранительным органам доступ к хранящимся на iPhone персональным данным. В Apple заявили, что подобный шаг даст правительству и другим сторонам возможность залезать в любое устройство, рыться в его содержимом и собирать конфиденциальные данные. С тех пор компания, к огромному огорчению ФБР и других органов правопорядка, стала шифровать аппаратное и программное обеспечение еще сильнее. И хотя в iCloud шифрование включено по умолчанию, IT-гигант мог сканировать файлы любого пользователя, если тот просил восстановить свои данные, например при авторизации на новом устройстве, восстановлении файлов из резервной копии или для получения помощи при возобновлении доступа к собственной учетной записи.
Правозащитники в области детской безопасности утверждают, что непоколебимая приверженность Apple конфиденциальности имеет свою цену: по сути, корпорация закрывает глаза на опасный, противозаконный материал, хранящийся на ее же сервисах. Как поделился с Forbes один бывший сотрудник компании, такая позиция «затмевает ряд других серьезных проблем общества». Технологи и опытные работники правоохранительных органов говорят, что остальные конкуренты от Google, Meta и Microsoft до Dropbox и других персональных облачных провайдеров помогают в борьбе с орудующими на их собственных платформах сексуальными маньяками гораздо активнее. Каждый год эти компании отправляют в Национальный центр по поиску пропавших и подвергшихся насилию детей на миллионы, а то и на десятки миллионов больше цифровых улик, чем Apple. Общественная организация рассматривает и категоризирует сведения, выдавая их затем структурам, расследующим преступления в отношении детей.
«Им никогда не было интересно заниматься защитой детей на своей платформе, ― полагает Джим Коул, двадцать лет проработавший в следственном отделе Министерства внутренней безопасности США. ― Они изо всех сил придерживаются принципов конфиденциальности, и искать материалы с сексуальной эксплуатацией детей закон их не обязывает».
В Apple отказались давать ответы по развернутому перечню вопросов, но перенаправили Forbes письмо от Нойеншвандера, директора по конфиденциальности пользователей и детской безопасности. В официальном заявлении Нойешвандер упомянул недавние требования со стороны некоммерческой организации Heat Initiative, которая хочет добиться от Apple возобновления планов сканировать свои системы на предмет материалов с сексуальной эксплуатацией детей. Нойеншвандер отметил, что от дальнейшей реализации проекта компания отказалась, поскольку систему «практически невозможно внедрить, не рискуя безопасностью и конфиденциальностью наших пользователей», но подчеркнул, что для борьбы с эксплуатацией детей корпорация располагает другим функционалом безопасности.
Массовое сканирование пользователей Apple «[откроет] двери для повсеместного наблюдения», предостерегает Нойеншвандер в письме (первым о нем сообщило интернет-издание Wired). «Как можно убедить пользователей в том, что один тип наблюдения не перенастроен на обнаружение другого вида контента, как, например, политическая активность или преследование по религиозному признаку? Инструменты массовой слежки чреваты серьезными последствиями для свободы слова в частности и демократии в целом», ― добавил директор, отметив, что недостатки данной разновидности сканирования могут обернуться проблемами для родителей, «когда они всего-навсего поделились совершенно нормальными и приличными фотографиями своих малышей».
Головоломка в iCloud
С декабря 2022 года Apple обеспечивает два уровня шифрования для iCloud. «Стандартная защита данных» шифрует информацию на сервере и при передаче, но Apple хранит у себя ключи для ее дешифровки. «Расширенная защита данных», по сути, делает все то же самое, однако восстановить зашифрованные данные IT-гигант не в состоянии. Так как на выбор второго варианта пользователи должны давать четкое согласие, Apple, по всей вероятности, имеет доступ к внушительному массиву незашифрованной информации в iCloud.
Кроме того, IT-гигант обрабатывает данные не только из своих собственных приложений, но и из сторонних сервисов электронной почты, социальных сетей и мессенджеров, для которых пользователь активировал резервное копирование, ― в таких случаях правоохранительные органы нередко указывают это в заявке для ордера на обыск учетной записи iCloud. Сюда относятся данные из WhatsApp от Meta и других конфиденциальных мессенджеров вроде Threema, а также из приложений типа Kik, которыми часто пользуются злоумышленники.
Джон Рауз, недавно ушедший на пенсию австралийский детектив, который на протяжении 25 лет расследовал случаи жестокого обращения с детьми, и бывший председатель рабочей группы Интерпола по секретным расследованиям в интернете уверен, что теоретически Apple могла бы сканировать iCloud при помощи PhotoDNA, одного из самых популярных инструментов по борьбе с онлайн-контентом, где зафиксирована эксплуатация детей. Данное ПО разработано в 2009 году совместными усилиями Microsoft и Дартмутского колледжа и конвертирует изображение в уникальное числовое значение — хеш. Полученные показатели можно сравнивать с базой данных хешей уже известных материалов с сексуальной эксплуатацией детей. В случае совпадения инициируется дальнейшая проверка.
PhotoDNA применяется настолько широко, что успел стать практически отраслевым стандартом ― Facebook (принадлежит компании Meta, которая признана в России экстремистской и запрещена) и Google пользуются им уже более десяти лет, Snapchat ― как минимум с 2020 года. Но Apple не присоединяется к стандарту. По словам Рауза, компания не занимается никаким «проактивным сканированием своих платформ и хранилищ либо передачей информации в целях содействия органам правопорядка ради пресечения эксплуатации детей. Ноль. Они на сотрудничество не идут».
Как и остальные IT-компании, по закону Apple обязана удовлетворять ордеры на обыск и сообщать об обнаруженных на своих платформах материалах с сексуальной эксплуатацией детей федеральным властям по специальной горячей линии CyberTipline, которую открыл Национальный центр по поиску пропавших и подвергшихся насилию детей.
За прошлый год принадлежащие Meta социальные сети Facebook и Instagram (принадлежит компании Meta, которая признана в России экстремистской и запрещена) ) подали в общей сложности 26 млн отчетов, Google ― 2 млн, TikTok ― почти 300 000, а Apple ― лишь 234 (годом ранее ― 160).
Apple на соцсетях не специализируется, поэтому сравнение не совсем корректное. При этом WhatsApp, сообщения в котором защищены сквозным шифрованием, сканирует на наличие материалов с сексуальной эксплуатацией детей незашифрованный контент вроде фотографий профилей и групповых чатов. В 2022 году сервис направил по горячей линии свыше 1 млн сообщений. Из Microsoft получено 110 000, от Dropbox пришло почти 46 000, а Synchronoss, оператор облачных хранилищ для Verizon, прислал более 30 000.
В Apple комментировать скромный по сравнению с другими компаниями вклад в работу Национального центра отказались. И хотя есть вероятность того, что разница отчасти обусловлена дубликатами (одними и теми же изображениями во множестве публикаций), критики считают такое положение следствием того, что Apple делает для регулирования оборота противозаконных материалов не более положенного по закону.
Пресс-секретарь Национального центра Гэвин Портной говорит, что несоразмерность «с потенциальным дублированием никак не связана» и является результатом нежелания Apple «прилагать разумные усилия к выявлению на своей платформе материалов с сексуальной эксплуатацией детей и отправке данных правоохранительным органам». Даже маргинальный форум 4chan, который и так с трудом можно назвать образцом модерирования, каждый год отправляет отчетов в несколько раз больше, чем Apple.
А еще на то, что сервисы Apple выступают площадкой для хранения контента с сексуальной эксплуатацией детей, указывают судебные документы. Дело Моллика было одним из как минимум 100 федеральных расследований в период с 2014 по 2023 год, в которых подозреваемому вменяли либо приписывали использование продуктов Apple для хранения материалов сексуального характера с участием несовершеннолетних. В данную цифру не включены разбирательства на уровне отдельных штатов, округов и расследования в других государствах, так что это всего лишь малая часть всех дел по эксплуатации детей, где фигурирует имя Apple.
Есть два наглядных примера. В 2022 году к 17 с лишним годам тюремного заключения за распространение материалов с сексуальной эксплуатацией несовершеннолетних приговорили 42-летнего жителя Техаса по имени Майкл Гэлван ― в его аккаунте на iCloud нашли около 600 незаконных видеороликов и фотографий. В мае текущего года вину во владении аналогичным контентом признал за собой бывший учитель начальной школы Ричард О'Коннор из округа Ориндж ― в ходе обыска его учетной записи iCloud были обнаружены по меньшей мере 81 видеоролик и 158 изображений с насилием над детьми, включая «жестокое, садистское и мазохистское обращение». В обоих случаях Apple предоставила данные в ответ на одобренные судом ордеры. Тем не менее изначальный сигнал, с которого началось расследование по делу Гэлвана, исходил опять-таки от Kik. Из всех случаев, с подробностями которых ознакомился Forbes, производитель iPhone сыграл на опережение и сообщил правоохранительным органам об обнаруженных в исходящих сообщениях электронной почты материалах с детской эксплуатацией сексуального характера лишь дважды.
Комментировать все эти случаи и разницу между сканированием на предмет подобных изображений исходящих писем электронной почты и сканированием iCloud в Apple отказались. Но корпорация в курсе наличия такого контента на своих сервисах. В текстовых сообщениях от 2020 года, обнародованных в рамках разбирательств между Epic Games и калифорнийским гигантом, директор по соблюдению антимонопольного законодательства Apple Эрик Фридман говорил своему коллеге, что Facebook и другие IT-предприятия сосредоточились на доверии и безопасности, но «запороли» конфиденциальность. Он также добавил, что подход Apple к конфиденциальности как к праву человека означает, что компания стала «лучшей платформой для распространения детского порно».
Переломный момент
В попытке научиться выявлять противозаконные материалы в хранилище iCloud Apple в конце 2010-х начала работу над инструментом, который будет прочесывать серверы на наличие контента с сексуальной эксплуатацией детей, не нарушая при этом конфиденциальность пользователей. Впервые об алгоритме под названием NeuralHash заявили в августе 2021 года. Тогда в Apple утверждали, что программное обеспечение может находить незаконный контент по заранее заданным параметрам прямо на устройстве еще до загрузки в интернет и без просмотра и фиксации любых данных по обыкновенным фотографиям. Сообщество защитников прав детей восприняло инициативу на ура. Однако еще громче звучала критика со стороны недовольных, которые усмотрели в NeuralHash серьезную угрозу конфиденциальности.
Главным голосом в лагере оппонентов был Фонд электронных рубежей, называвший инструмент Apple «черным ходом к усиленной слежке и цензуре по всему миру». Главный активист объединения Джо Маллин заявил, что предлагаемые техники для поиска нежелательных изображений могут привести к повальной слежке за пользователями Apple. «Они пытаются найти конкретные изображения, нарушающие закон, ― здесь вопросов нет, но техники, которые они для этого предлагали, были... давайте представим весь мир стогом сена и запустим туда алгоритм, который будет в нем рыться», ― рассказал он Forbes. Специалист также добавляет, что инструменты сканирования зачастую неточны и их нельзя проверить.
Как рассказала Forbes президент Signal Мередит Уиттакер, первоначальные планы Apple по сканированию фотографий из iCloud без вторжения в личную жизнь пользователя ― это все равно что «предлагать волшебство вместо реальности». Об этом Apple заявила в недавнем письме от Нойеншвандера, своего директора по конфиденциальности пользователей и детской безопасности, отвечая на новые требования сканировать фотографии в облаке на наличие противозаконного контента. Более сильного заявления ни от какого другого технологического гиганта Уиттакер за последние 20 лет обсуждения проблемы не слышала: «Было совершенно ясно, что такое просто невозможно». Уиттакер указывает на предыдущие исследования, благодаря которым в NeuralHash обнаружились уязвимости, и заявляет, что технология может потенциально привести к утечке информации о фотографиях без сексуальной эксплуатации детей или быть использована, чтобы кого-нибудь подставить.
«Заявление Apple знаменует собой конец идеи о том, что у любого можно сканировать средства связи и соблюдать конфиденциальность, ― написала Уиттакер в Twitter. ― В распоряжении Apple множество лучших в мире шифровщиков + разработчиков + бесконечные $. Если не получилось у них, не получится ни у кого».
Возмущение общественности по поводу NeuralHash было настолько бурным, что осенью 2021 года Apple поставила реализацию проекта на паузу, а в декабре 2022-го и вовсе его закрыла. Некоторых из тех, кто работал над программой, подобный шаг крайне огорчил и разочаровал. Один бывший сотрудник говорит, что инструмент был замечательным, и добавляет: «Он был революционным. И был проделан огромный труд». Другой рассуждает: «Они не удосужились его как следует описать. У них не вышло, потому что Apple не вводит людей в курс. Они любят удивлять и изумлять, но не понимают, что в таких вещах людей нужно посвящать в курс дела на каждом этапе».
В течение года после объявления компанию покинули и Полински, и Ричардсон: первая ушла работать в Министерство юстиции, другая устроилась в GoFundMe. Боумик, главный инженер по обнаружению материалов с сексуальной эксплуатацией детей, основал собственный стартап в сфере безопасности Samooha. Директор по конфиденциальности Хорват в начале текущего года получила должность в юридической фирме Gibson, Dunn & Crutcher, а глава отдела облачных разработок Эбботт в апреле перешел в штат General Motors.
Кардинальный разворот Apple также разозлил правозащитников и представителей правоохранительных органов, ведь внедрение NeuralHash и приверженность корпорации новому принципу они считали большим шагом вперед в борьбе против эксплуатации несовершеннолетних. Среди тех, кого отказ Apple от таких планов разочаровал, было и объединение Эштона Катчера Thorn, борющееся с материалами откровенного содержания при участии детей. «Во благо или во вред можно использовать любую технологию ― именно поэтому каждая IT-компания должна искать баланс между конфиденциальностью и безопасностью, ― заявляет Forbes президент Thorn Джули Кордуа. ― Если соблюдать только одно и пренебрегать другим, технологией можно начать злоупотреблять».
Не упрощает жизнь и то, что отказ Apple от NeuralHash, по-видимому, усугубляет и без того напряженные отношения компании со следователями, занимающимися борьбой с детской эксплуатацией. Рауз сетует, что Apple все больше отстраняется: «Они не идут на контакт... не выходят на диалог с нами. И это крайне разочаровывает, так как они ― один из крупнейших в мире IT-провайдеров».
Тем не менее сторонники конфиденциальности убеждены, что принятое Apple решение является единственно верным, а от идеи с NeuralHash нужно было отказываться раньше. За четкую позицию под шквалом недавней критики компанию похвалил даже основатель и генеральный директор Epic Games Тим Суини, который, помимо всего прочего, до этого сам называл гиганта из Купертино «угрозой для свободы во всем мире». Ранее он утверждал, что уже свернутые планы по выявлению контента с сексуальной эксплуатацией несовершеннолетних представляют собой «установленное Apple на основании презумпции виновности правительственное шпионское ПО» и являются «абсолютным безумием».
«Apple разумно поступила, что не поддалась на всеобщее давление и не стала внедрять слежку за конфиденциальными документами и перепиской пользователей от имени государственных органов, ― заявил Суини в Twitter на прошлой неделе. ― Предложение все сканировать уже само по себе было вопиющим нарушением прав потребителей».
Перевод Антона Бундина