Маск и Возняк призвали приостановить обучение систем ИИ из-за «риска для общества»
Глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute).
Письмо призывает все ИИ-лаборатории немедленно приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий», говорится в письме.
Американская OpenAI представила новую версию языковой модели с генеративным искусственным интеллектом GPT-4 в марте 2023 года. На базе этой модели работает многозадачный чат-бот ChatGPT, который демонстрирует производительность на уровне человека в различных профессиональных и академических тестах и способен отвечать почти на любые вопросы пользователей и писать тексты по заданию.
Исполнительный директор OpenAI Сэм Альтман не подписал письмо, сообщил Reuters представитель Future of Life Institute. При этом сама OpenAI недавно заявила, что, прежде чем приступать к обучению будущих систем, следует согласиться ограничить скорость вычислений, используемых для создания новых моделей.
В открытом письме подчеркивается, что сегодня даже создатели «мощных цифровых умов» не в состоянии понимать их или надежно контролировать. При этом современные системы искусственного интеллекта уже становятся конкурентоспособными в решении общих задач, способны «наводнить информационные каналы пропагандой и неправдой» и заменить человека на важных рабочих местах. «Должны ли мы развивать нечеловеческие умы, которые в конечном итоге могут превзойти нас численностью, перехитрить и заменить? Должны ли мы рисковать потерей контроля над нашей цивилизацией?» — задаются вопросами авторы письма.
Ранее, 27 марта, полиция ЕС — Европол предупредил о потенциальном неправомерном использовании таких передовых систем искусственного интеллекта, как ChatGPT в фишинге, дезинформации и киберпреступности.
«Письмо не идеально, но суть верна: нам нужно притормозить, пока мы лучше не поймем последствия», — объяснил Reuters профессор Нью-Йоркского университета Гэри Маркус, также его подписавший. Он признал, что крупные игроки в сфере искусственного интеллекта становятся все более скрытными в отношении того, что они делают, «это осложняет защиту общества от вреда, который может материализоваться».