Байден обсудил риски ИИ с его разработчиками и руководством Google и Microsoft
Президент США Джо Байден встретился с руководством компаний-разработчиков технологий искусственного интеллекта — OpenAl и Anthropic, главой Microsoft Сатья Наделлой и гендиректором Google Сундаром Пичаи, чтобы обсудить риски ИИ. Байден призвал их к «фундаментальной ответственности» за программные продукты еще до их внедрения
Президент США Джо Байден встретился с главами Microsoft и Google (материнская компания — Alphabet) и гендиректорами компаний-разработчиков технологий искусственного интеллекта (ИИ) — OpenAl и Anthropic. Они обменялись мнениями об опасностях, связанных с ИИ, и Байден призвал компании к «фундаментальной ответственности» за надежность программных продуктов еще до их внедрения и распространения, сообщила пресс-служба Белого дома.
В сообщении на сайте Белого дома перечислены участники встречи со стороны IT — это глава Microsoft Сатья Наделла и гендиректор Google и Alphabet Сундар Пичаи, глава OpenAI, которая разработала ChatGPT, Сэм Альтман и глава Anthropic, которая работает над альтернативными GPT моделями ИИ, Дарио Амодеи. Администрацию Байдена представляли также вице-президент Камала Харрис и группа советников и экономистов Белого дома.
Байден на встрече подчеркнул, что «компании несут фундаментальную ответственность за обеспечение безопасности своих продуктов до того, как они будут внедрены или распространены», говорится в сообщении. Он высказал мнение, что нужно «смягчить как существующие, так и потенциальные риски, которые искусственный интеллект представляет для каждого человека, общества и национальной безопасности», чтобы реализовать преимущества ИИ.
В Белом доме предупредили, что к рискам относят угрозы безопасности, правам и свободам человека, неприкосновенности частной жизни, рабочим местам и демократическим ценностям. В пресс-службе назвали откровенным и конструктивным обсуждение трех главных моментов, связанных с ИИ: это максимальная прозрачность IT-компаний для политиков и населения в отношении систем ИИ; возможность оценки, проверки и подтверждения их надежности и обеспечение защиты от атак и хакеров.
В марте более тысячи экспертов призвали на полгода приостановить обучение более мощных систем ИИ. Они считают, что сначала нужно разработать и внедрить общие протоколы безопасности, а исследования можно будет продолжить, когда будет уверенность в их положительном эффекте и управляемости рисков. Среди подписавших открытое письмо были основатель SpaceX и Tesla Илон Маск, который был одним из создателей и инвесторов OpenAI, и сооснователь Apple Стив Возняк.
Основатель Microsoft Билл Гейтс в интервью Reuters в начале апреля заявил, что призывы приостановить развитие искусственного интеллекта не решат проблемы. По его мнению, лучше всего сосредоточиться на том, как эффективнее использовать возможности ИИ. Власти Италии 31 марта запретили доступ к ChatGPT в стране. Причиной стала утечка персональных данных: некоторые пользователи могли видеть фрагменты диалогов других людей и их данные, в том числе банковские. OpenAI объяснила это «ошибкой в работе библиотеки с открытым исходным кодом». В апреле чат-бот снова стал доступен в Италии.
Британский и канадский ученый-информатик Джеффри Хинтон, которого называют основоположником и «крестным отцом» искусственного интеллекта, ушел из Google, сообщила в начале мая The New York Times. В Twitter (соцсеть заблокирована в России) Хинтон заявил, что сделал это, чтобы свободно говорить об опасностях нейросетей, не задумываясь о том, как его слова повлияют на Google. В то же время он подчеркнул, что Google работает в этой области «очень ответственно».