Facebook начнет искать суицидальные посты по всему миру
Facebook объявил о совершенствовании системы, позволяющей с помощью технологий искусственного интеллекта определить суицидальные намерения пользователей. Об этом сообщил основатель социальной сети Марк Цукерберг. Он отметил, что теперь ресурсу не потребуются обращения со стороны друзей такого пользователя. Представитель соцсети добавил, что функцию нельзя будет отключить.
Система, созданная для профилактики самоубийств, будет анализировать сообщения пользователей и предупреждать их друзей о том, что им нужна помощь. Ранее технология требовала пользователя или одного из своих друзей написать в поддержку просьбу о помощи, теперь же искусственный интеллект может самостоятельно сигнализировать об этом модераторам.
Система как «читает» сообщения пользователя, так и «просматривает» его трансляции в Facebook Live. Если она обнаруживает признаки, которые идентифицируются как «мысли о самоубийстве», то эти сообщения перенаправляются специально обученным модераторам Facebook, которые, в свою очередь, при необходимости могут связаться с пользователем, оказавшимся под угрозой.
Вице-президент Facebook по управлению продуктами Гай Розен отмечает, что преимущество усовершенствованной системы в том, что она может помочь пользователю еще до того, как кто-то из его близких заподозрит неладное.
Экспансия добрых намерений
Кроме того, теперь компания модернизирует свое программное обеспечение для распознавания образов в других странах после успешных тестов в США, чтобы обнаружить пользователей с суицидальными намерениями. Розен добавил, что за прошедший месяц сотрудники Facebook проверили более 100 подобных случаев, как сообщил Techcruch.
«Это направлено на то, чтобы сохранить минуты на каждом этапе (реагирования), особенно если речь о (сервисе прямых трансляций) Facebook Live. За последний месяц Facebook инициировала около 100 «профилактических проверок», когда сотрудники соответствующих служб посещали пользователей. Были случаи, когда люди приходили, а пользователь еще вел трансляцию», — рассказывает вице-президент компании.
В компании подчеркнули, что теперь постараются привлечь специалистов, которые смогут работать на местных языках круглосуточно. «Скорость действительно имеет значение. Мы должны оказывать помощь людям в режиме реального времени», — подчеркивает топ-менеджер Facebook. Сейчас компания уже заключила соглашения о партнерстве в этой сфере с 80 организациями, которые занимаются срочной психологической помощью.
Социальная сеть начала тестировать ПО в США в марте 2017 года, тогда компания сканировала текст сообщений Facebook и комментарии на наличие фраз, которые могут быть сигналом о надвигающемся самоубийстве.
Facebook не раскрывал технические детали программы, отмечая лишь, что программа ищет определенные фразы, которые могут быть ключом, например, вопросы «Все в порядке?» и «Могу ли я помочь?». Затем отчет получает модератор и после этого пользователь или его друзья. Сообщения также могут перенаправляться на телефонную линию помощи. В редких случаях сотрудники Facebook связываются с местными властями для вмешательства.
Теперь эти инструменты также будут доступны за пределами США в первый раз — Facebook расширяет их в глобальном масштабе (за исключением стран Евросоюза, где использование такой технологии конфликтует с местным законодательством в области защиты частной информации).
Этические вопросы
Представитель Facebook ответил Techcrunch отрицательно на вопрос о возможности отключения новой функции соцсети. Собеседник издания добавил, что функция предназначена для повышения безопасности пользователей социальной сети, и если кому-то не понравятся такие ресурсы поддержки от Facebook, то они будут автоматически скрыты.
При этом сотрудник соцсети уклонился от ответа на вопрос, собирается ли соцсеть использовать эти технологии для выявления других постов — например, политической или криминальной направленности.
«Со всем страхом насчет того, как ИИ может быть вредным в будущем, хорошо напомнить себе, как ИИ фактически помогает спасти жизнь людей сегодня», — отметил основатель Facebook в сообщении в социальной сети. Глава службы безопасности в Facebook Алекс Стамос также прокомментировал опасения пользователей и журналистов. По его словам, Facebook крайне серьезно относится к использованию технологий искусственного интеллекта. Он выразил уверенность, что риск злонамеренного использование таких технологий будет присутствовать всегда, а потому обществу необходимо уже сегодня выработать нормы работы с ними, не забывая о той пользе, которую подобные технологии могут принести человеку и найти пределы допустимого.
Заявление Стамоса совпало с очередными опасениями главы SpaceX и Tesla Илона Маска, который в своем Twitter вновь выразил уверенность в необходимости регулирования искусственного интеллекта и робототехники. Бизнесмен подчеркнул, что государство должно регулировать эти области так же, как оно регулирует рынок продуктов питания, фармацевтический рынок, авиастроительный, автомобильный и другие. «Общественные риски требуют общественного контроля», — уверен миллиардер.