К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего броузера.

Заря суперинтеллекта: о чем говорит новый проект Ильи Суцкевера

Фото DR
Фото DR
Несколько бывших сотрудников OpenAI объявили о создании новой компании. Она называется Safe Superintelligence, что переводится как «безопасный суперинтеллект». Интересно в этом то, что концепция искусственного суперинтеллекта существует уже не первый год, правда, есть нюанс — она считается практически фантастической. Или считалась? О том, как фантастика превращается в реальность, рассказывает СЕО университета «Зерокодер» Кирилл Пшинник

Перемены и перестановки

Илья Суцкевер, сооснователь и ведущий исследователь OpenAI, объявил 19 июня в социальной сети X (ранее Twitter, заблокирована в России) о начале нового проекта. В сообщении он процитировал пост компании, который начинается со слов: «Суперинтеллект на расстоянии вытянутой руки».

Safe Superintelligence, а именно такое название получила новая компания, — это персональный проект Суцкевера, которым он занимается совместно с Дэниелом Гроссом, бывшим главой отдела ИИ-разработок в Apple, и Дэниелом Леви, тоже экс-сотрудником OpenAI. Итого три ведущих специалиста в области нейросетей взялись за разработку чего-то нового, о чем, правда, пока ничего неизвестно. Кроме того, что речь идет о суперинтеллекте.

Илья Суцкевер (Фото Amir Cohen·Reuters)

Не сказать, что двое бывших сотрудников OpenAI в качестве основателей — это что-то удивительное. В последнее время компания переживает период встряски, связанный в основном с кратковременным увольнением Сэма Альтмана в конце прошлого года. После таких новостей подавляющее большинство сотрудников пригрозило уйти в Microsoft, совет директоров заверил, что восстановит Альтмана на посту. Что в итоге и произошло.

 

Судя по информации The Verge, Илья Суцкевер сыграл не последнюю роль в увольнении Альтмана. Источники полагают, что внутри компании происходила борьба между исследовательским и продуктовым отделами. В частности, сооснователи не могли решить, насколько быстро должен развиваться искусственный интеллект и не нанесет ли его стремительное развитие вред человечеству.

В мае о решении покинуть OpenAI объявил уже сам Суцкевер, назвав причиной желание работать над новым проектом, несущим для него личное значение. Этим постом в социальной сети X Суцкевер прервал молчание, длившееся с декабря.

 

(Безопасный) суперинтеллект

Пока официальный сайт Safe Superintelligence представляет из себя страницу текста со ссылкой на контакты. Своей миссией компания называет создание безопасного суперинтеллекта SSI, причем без сложной менеджерской системы и лишней бюрократии. Похоже, внутренние скандалы OpenAI заставили Суцкевера, Гросса и Леви пересмотреть свой подход к стартапам.

На сайте Safe Superintelligence написано: «SSI — это наша миссия, наше название и вся дорожная карта наших продуктов, потому что это наш единственный фокус». Но что такое суперинтеллект?

Искусственный суперинтеллект, он же ASI от artificial superintelligence, — это гипотетическая концепция ИИ, когнитивные мощности которого в десятки тысяч раз превосходят человеческие. Предположительно, такая система не только сможет обучаться на больших объемах данных, что нейросети умеют и в нынешнем состоянии, но и будет обладать способностями к решению проблем, взаимодействию с социумом и креативному мышлению. Чтобы представить себе ASI, проще всего подумать о разного рода фантастических тайтлах, например о фильме «Двухсотлетний человек» по мотивам повести Айзека Азимова или «Железном человеке», в котором главному герою помогал сверхразумный ИИ-дворецкий по имени Джарвис.

 

Конечно, условные ИИ-дворецкие у нас есть и сейчас — это Алиса, Алекса, Сири и другие голосовые помощники. Но они ограничены текущим состоянием искусственного интеллекта. То, чем мы пользуемся сейчас, и то, что можем наблюдать в чат-ботах, беспилотных автомобилях и системах распознавания лиц — это узкий, или слабый, ИИ. Он заточен на решение определенной задачи и может принимать решения только на основе тех данных, на которых обучался. Скажем, это может быть система рекомендаций на стриминговой платформе. Со своей работой справляется виртуозно, возможно, даже лучше человека, но в плане универсальности довольно слаб.

Следующий логический шаг после узкого ИИ — общий, или сильный, ИИ, он же AGI (от artificial general intelligence). Как и суперинтеллект, это только гипотетическая концепция, искусственный интеллект, кругозор и производительность которого неотличимы от человеческого. Это машина, с которой можно поговорить на одном уровне, способная учиться, использовать свои знания в абсолютно любой сфере, умеющая даже решать креативные задачи. Думаешь об AGI — представляешь человека.

Эксперты считают, что создать сильный ИИ вполне возможно, а ученые OpenAI даже выпустили исследование, в котором говорится: «Учитывая широту и глубину возможностей GPT-4, мы считаем, что его можно с полным основанием рассматривать как раннюю (пока еще неполную) версию системы искусственного интеллекта общего назначения (AGI)». Правда ли это? Сложно сказать, потому что четкого определения AGI не существует.

ASI, или суперинтеллект, — следующая ступень после AGI в гипотетической эволюции ИИ. Илья Суцкевер делает большую ставку — он хочет перешагнуть через этап общего ИИ и сразу приступить к куда более амбициозному проекту. Или же в OpenAI работали над чем-то, что пока еще недоступно широкой публике по тем или иным причинам. Можно поспекулировать на эту тему дальше и предположить, что это и было причиной разлада между Суцкевером и Альтманом. Можно даже предположить, что исследователей беспокоит не столько вопрос бизнеса, сколько проблема безопасности ИИ. В конце концов, не зря перед словом «суперинтеллект» в названии компании Safe Superintelligence появилась приписка «безопасный».

По тем или иным причинам

На сайте Safe Superintelligence слово «безопасность» повторяется несколько раз. Команда планирует подходить к вопросу безопасности и мощности в тандеме — быстро развивать возможности, но при этом ставить безопасность во главу угла. Ничего странного в этом нет: вопрос безвредности искусственного интеллекта интересует людей даже на нынешнем этапе слабого ИИ, и чем умнее нейросети, тем актуальнее он становится.

 

Некоторые эксперты, включая профессора информатики Романа Ямпольского и бывшего сотрудника Google Джеффри Хинтона, призывают относиться к ИИ настороженно. Хинтон говорил, что экзистенциальная угроза, которую он несет человечеству, уже давно перешла из области научной фантастики в реальность, а Ямпольский называет ИИ непредсказуемым. На этапе AGI и тем более ASI, по его мнению, предсказать поведение ИИ станет практически невозможно.

Ямпольский исследовал возможность контролировать ИИ и пришел к выводу, что сделать это будет очень сложно. Сложнее всего заставить его мыслить в плоскости человеческой нравственности и морали. В конце концов, даже у Азимова роботы с мозгом значительно более мощным, чем у среднестатистического человека, были ограничены законами робототехники.

Поэтому невозможно, чтобы ученый уровня Ильи Суцкевера не задумался об этом вопросе. Пока мы не знаем, что подразумевается под «безопасностью» суперинтеллекта, как неизвестно нам и то, каким образом команда планирует его разработать. Одно понятно: заявление Суцкевера произвело эффект в определенных кругах, и в конечном итоге его проект может повлиять на все сферы жизни общества — науку, этику и бизнес.

Инвестиции в будущее

Слово «суперинтеллект» прозвучало в недавних новостных сводках не единожды. Есть еще один человек, для которого ASI может стать делом жизни, и этот человек — японский миллиардер, стратегический инвестор и основатель компании SoftBank Масаеси Сон.

 

SoftBank принадлежит около 90% акций производителя чипов Arm. Именно с ним предприниматель связывает свою идею о суперинтеллекте — возможности создать роботов, которые совместным когнитивным усилием смогут исцелять онкологию, убирать дома и заботиться о детях. В новый проект Сон планирует инвестировать около $100 млрд — и все ради того, чтобы сделать суперинтеллект реальностью.

Последние несколько инвестиций SoftBank оказались неудачными, что вынудило Сона временно пропасть с радаров, но на ежегодном собрании акционеров он впервые за долгое время зазвучал воодушевленно. «Я получил ответ, — сказал Сон. — Это то, для чего я был рожден. Мы много чего сделали, но все это было лишь разминкой перед моей мечтой реализовать ASI».

Когда ведущие ученые, связанные с разработкой ИИ, и крупнейший японский инвестор в телекоммуникационные технологии вдруг заговорили об одном и том же, это как минимум повод задуматься. Искусственный суперинтеллект до этого момента был скорее фантастикой, чем реальностью, некой разминкой для ума. Сейчас идея приобретает форму. Какой она будет — покажет только время: чипы, боты, роботы, пронизывающая все вокруг система «умный город». И время покажет, какое влияние ASI, случись ему быть разработанным, окажет на жизнь и бизнес.

Мнение редакции может не совпадать с точкой зрения автора

 

Мы в соцсетях:

Мобильное приложение Forbes Russia на Android

На сайте работает синтез речи

иконка маруси

Рассылка:

Наименование издания: forbes.ru

Cетевое издание «forbes.ru» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2024
16+