Как попытки спасти мир подвели OpenAI к кризису и при чем тут «эффективный альтруизм»
Начнем издалека. Американский капитализм строился вокруг идеи «компактного» государства и высокой ответственности граждан за создание себе самим условий для жизни и безопасности. Отсюда свобода владения оружием, гражданские комитеты и общества по любым вопросам и развитая система благотворительных организаций. Практически каждый минимально разбогатевший коммерсант должен был немедленно стать филантропом — или подвергался немедленной и жесткой обструкции. На деньги филантропов создавались музеи, театры, библиотеки, парки, университеты, в том числе, например, самый знаменитый в научно-технологическом мире Стэнфордский университет в Кремниевой долине. Кстати, известный в современной России чуть ли не как символ благотворительности Билл Гейтс в самой Калифорнии долгое время был объектом критики именно из-за слабой филантропической активности, и многие этой его прижимистости не могут ему простить до сих пор.
Но у американцев есть и другая страсть — статистика. Они любят считать все: историю успешности броска любимого бейсболиста, среднее число дней роста акций, вероятность ядерной войны — в общем, любое суждение и действие должно быть подкреплено данными. Просто так инвестировать, просто так выделять деньги на исследования никто никому не позволит. За каждую операцию замучают проверками и вопросами — в общем, сплошная бухгалтерия. И вот данные и статистика добрались, наконец, до филантропии.
Возглавили это движение оптимизации благотворительности, естественно, гики Кремниевой долины. В 2014 году один из соучредителей Facebook (принадлежит компании Meta, которая признана в России экстремистской организацией и запрещена), Дастин Московиц, чья доля в компании уступала только Марку Цукербергу, с женой Кэри Туна и единомышленниками он создал организацию Open Philanthropy.
Положив в основу часть своего двенадцатимиллиардного состояния, Дастин и Кэри начали создавать методики эффективного выделения денег на основе тогда малоизвестной концепции «эффективного альтруизма». Движение стало весьма популярным в Кремниевой долине, про пару написали восторженные статьи все топ СМИ, в общий филантропический фонд принесли средства друзья техномиллиардеры, например соучредитель Instagram (принадлежит компании Meta, которая признана в России экстремистской организацией и запрещена) Майк Кригер, который пообещал выделить $750 000 долларов. В 2022 году Open Philanthropy одобрили выделение грантов на сумму более $650 млн.
Если изучить сайт Open Philanthropy и информацию вокруг, то разворачивается огромная панорама. С одной стороны, мы видим попытки найти эффективные «модели филантропии, основанные на данных», а с другой — активное движение по направлению в Вашингтон, поближе к рычагам мировой власти. В частности, на радары СМИ попали активные контакты Московица с действующим госскеретарем США Энтони Блинкеном, который «консультировал» Open Philanthropy. Тут надо сделать оговорку, что сами по себе такие контакты в США не являются чем-то предосудительным, если, конечно, были своевременно внесены в рапорты о лоббистской деятельности. Более того, бывшие и будущие политики имеют полное право работать в бизнесе или науке, сама такая концепция называется «вращающиеся двери» — когда бизнес, наука и политика обмениваются кадрами, которые в результате набирают широкий спектр компетенций.
Методологией и идеологией филантропов типа Московица и Илона Маска стала идейно-философская концепция «эффективного альтруизма». «Эффективный альтруизм» провозглашает «использование доказательств и разума, чтобы выяснить, как принести максимальную пользу другим, и принятии мер на этой основе». Начиналось это как философский кружок Оксфордского университета, ставший впоследствии организацией Giving What We Can, причем ставка делалась на «научное обоснование филантропии»: «Десятилетие исследований благотворительности выявило нечто поразительное: лучшие благотворительные организации могут приносить в 100 раз больше пользы на каждый доллар. В Giving What We Can мы покажем вам, как найти такие благотворительные организации, чтобы вы могли помочь решить некоторые из самых насущных мировых проблем».
Организация быстро вышла за рамки древнего университета, создав «руководство молодого карьериста» — программу «80 000 часов», пройдя которую юноша или девушка с горящими глазами обзаводились верной методикой спасения мира и связями во всех частях света. Своеобразный «капиталистический комсомол», который берется спасать мир и одновременно строить успешную личную карьеру! Абсолютная win-win стратегия, просто обреченная на успех. Сайт организации представляет собой готовый справочник того, как найти, а если не получится найти, то создать собственную ячейку «альтруистов». Начавшись как «оптимизация филантропии», движение «эффективного альтруизма» постепенно отказалось от «скучных» современных задач (таких как снижение заболеваемости малярией) и переключилось на воспетые Голливудом темы «спасения планеты». Тема «ИИ апокалипсиса» легла на подготовленную «Терминатором» и «Матрицей» почву, а «марвеловская методика» спасения мира группой невротиков стала руководством к действию. И вот уже «эффективный альтруизм», по сути, превратился в секту.
Эта история хорошо описана в воспоминаниях одного из ключевых лидеров движения Уильяма Макаскила, о котором надо сказать отдельно. Основав движение «эффективных альтруистов» в 2008 году еще в студенчестве, в настоящее время он является одним из самых востребованных в мире философов. Тема его докторской диссертации «Как следует принимать решения в условиях нормативной неопределенности» это, вероятно, самая актуальная проблема современности. Макаскилл работал председателем консультативного совета Института глобальных приоритетов Оксфордского университета (подразделение философского факультета Оксфордского университета) и директором Фонда исследований глобальных приоритетов Fore Thought Foundation.
Но в полной мере он стал известен в среде американских техномиллиардеров, став для них гуру и советником в части «эффективной филантропии». Его книга «Чем мы обязаны будущему», создавшая целую концепцию лонгтермизма (longtermism — этическая концепция, приоритезирующая улучшение долгосрочного будущего человечества), стала почти Библией в Кремниевой долине, произведя фурор и заслужив самые лестные отзывы (Илон Маск назвал ее «самой близкой к его мировоззрению»). В число миллиардеров, вложивших значительные средства в достижение этой цели, в особенности в защиту будущего человечества от угроз ИИ, входят Илон Маск, сооснователь Ethereum Виталик Бутерин, основатель BitMEX Бен Дело, сооснователь Skype Яан Таллинн, миллиардер Питер Тиль и уже упомянутый Дастин Московиц.
Однако на этом триумфальном пути философской идеи случилась проблема. Одним из почитателей Макаскилла стал Сэм Бэнкман-Фрид, а Макаскилл стал членом Фонда будущего скандально обанкротившейся крипто-биржи FTX, который в 2022 году выделил $160 млн на «эффективные цели альтруизма», в том числе $33 млн организациям, напрямую связанным с Макаскиллом.
Скандальное банкротство FTX привлекло пристальное внимание к «оксфордским комсомольцам», и вот уже наружу полезли скандальные факты. Пошли истории про создание полиаморных групп с принуждением девушек к отношениям, другие сомнительные истории. Идиллия «философской рациональности» начала обнаруживать признаки сходства с сектой, которых история США знала сотни, достаточно вспомнить сайентологов.
Но самый острый вопрос, который волнует сейчас многих, это то, что «эффективные альтруисты» фактически прибрали к рукам контроль над процессом создания и развития искусственного интеллекта. Да, буквально, в любом скандале вокруг ИИ последних лет видны следы «эффективных альтруистов».
В компании ОpenAI, которая сделала публичной и массовой революцию генеративного интеллекта, идеология «эффективного альтруизма» лежала в самой основе. Компания была учреждена как некоммерческий фонд, «преследующий целью создание безопасного AGI (сильного искусственного интеллекта)». В числе основателей были звезды долины первой величины — Питер Тиль (глава одноименной «мафии Тиля», сообщества стартапов, основанных при его участии) и Илон Маск. Маск стал основным спонсором на первой стадии проекта, дав $100 млн в чисто благотворительное начинание. Однако Маск не любит упускать бразды правления и достаточно быстро между ним и руководителями компании возник конфликт, а когда Tesla сделала ставку на разработку собственного ИИ, и вовсе покинул клуб учредителей.
После серии смен в совете директоров OpenAI возник тот состав, который отправил основателя компании Сэма Альтмана в отставку в прошлую пятницу, 17 ноября. Примечательную позицию в нем занимала Хелен Тонер, которую обычно представляют как бывшего научного сотрудника в центре управления искусственным интеллектом Оксфордского университета, а затем директора по стратегии и грантам на фундаментальные исследования Джорджтаунского центра безопасности и новых технологий. В последнем Тонер стала одним из ведущих мировых экспертов в области «безопасного ИИ». По сообщениям прессы, именно от нее исходила инициатива в истории с отставкой Альтмана.
Став активным членом сообщества «эффективных альтруистов» еще в родном Мельбурнском университете, впоследствии она «посвятила свою трудовую жизнь «эффективному альтруизму» и безопасности ИИ», работала в некоммерческой организации GiveWell, занимающейся «эффективным альтруизмом», а затем присоединиться к проекту Open Philanthropy (с которого мы начали эту захватывающую историю). Итак, мы снова видим, как филантропы Кремниевой долины стоят за управлением ключевым проектом разработки ИИ. Кстати, Адам Д’Анджело, близкий друг и партнер Московица, основателя OpenPhilantropy, был и в центре скандальной отставки Альтмана, сначала поддержав Хелен Тонер, но затем став основным переговорщиком по сбору нового состава совета директоров, в котором он в итоге, в отличие от Тонер, остался.
Еще за месяц до скандала журналисты обратили внимание, что сотрудники Open Philanthropy участвуют в переговорах, которые определят ускоряющиеся планы Капитолийского холма по регулированию искусственного интеллекта. И за ними стоит мощная сеть влияния, которая заставляет Вашингтон сосредоточиться на долгосрочных рисках, связанных с технологиями. По сообщению Politico, «согласно документам и интервью, действуя через малоизвестный Horizon Institute for Public Service, некоммерческую организацию, которую Open Philanthropy фактически создала в 2022 году, группа финансирует зарплаты технических специалистов в ключевых офисах Сената.
У трех главных помощников лидера сенатского большинства Чака Шумера по законодательству в области искусственного интеллекта — сенатора Мартина Генриха, Майка Раундса и Тодда Янга, по данным Politico, у каждого есть сотрудник Horizon, работающий над ИИ или биобезопасностью. В состав офиса сенатора Ричарда Блюменталя, влиятельного члена юридического комитета Сената, который недавно обнародовал планы по режиму лицензирования ИИ, входит научный сотрудник Horizon AI, который работал в OpenAI непосредственно перед переходом в Конгресс.
Действующие и бывшие стипендиаты Horizon AI, зарплаты которых финансируются Open Philanthropy, сейчас работают в Министерстве обороны, Министерстве внутренней безопасности и Государственном департаменте, а также в Комитете по науке Палаты представителей и Комитете по торговле Сената — двух важнейших органах в разработке правил ИИ. По данным веб-сайта Horizon, они также входят в ключевые аналитические центры, определяющие политику в области искусственного интеллекта, в том числе в корпорацию RAND и Центр безопасности и новых технологий Джорджтаунского университета.
Фактически «благотворительная организация» Московица стала теневым центром, формирующим политику США в отношении ИИ на государственном и международном уровнях. В этом контексте переполох в OpenAI это лишь маленький эпизод в саге о столкновении групп, претендующих на то, что только они понимают, куда все движется и что надо делать.
С одной стороны, описанная история совершенно обычна в американской лоббистской практике. В то же время, это не означает, что «все разработки финансируются правительством», как любит писать желтая пресса и неосведомленные блогеры. Ситуация ровно обратная: частные компании создают революционные технологии, меняющие бизнес и весь мир, а регуляторы и политики ищут способы это возглавить и направлять в меру своего понимания общественного блага и личной выгоды. Например, в составе совета директоров OpenAI некоторое время состоял Вильям Херд, экс-конгрессмен и республиканский кандидат в президенты 2024 года, бывший офицер ЦРУ, работавший под прикрытием в Пакистане, и бывший ведущий эксперт Конгресса по вопросам кибербезопасности.
Итак, вокруг ИИ-стартапа сгрудились интересы партий, политиков, секретных служб, общественных движений, миллиардеров, глобальных корпораций. Не знаю, способен ли ИИ уничтожить все человечество, но то, что он уже смешал все карты и практики в уютной тусовке американского истеблишмента, — состоявшийся факт.
ИИ, особенно тот самый «сильный ИИ», который, по обещаниям разработчиков, научится справляться с математическими задачами старших классов, а возможно, осилит и все не решаемые человечеством научные загадки тысячелетия, действительно способен перевернуть мир. Однако он был и остается порождением и созданием человечества — он обучен на наших знаниях и развивается во взаимодействии с нами. Став ареной философских войн, он позволяет нам все глубже понимать мир. И предрекая неизбежное уничтожение, философы отказывают человеку в праве, заслуженном им за тысячелетия истории, — преодолевать проблемы и изобретать способы и методы устранения самых страшных угроз.
«Философско-комсомольский» кружок Оксфордского университета спровоцировал, наверное, самую важную дискуссию в истории: способен ли человек бесконечно развиваться, преодолевая вызовы и продолжая возвышаться над своими самыми могучими творениями. У школы, защищающей право человека на риск, нет своей организационной площадки, но есть тысячи предпринимателей и инвесторов, которые готовы делать ответственные ставки и которые хотят пройти свой путь по неизведанной дороге познания. Которая, наверное, и есть суть и смысл существования человечества на Земле.
Мнение редакции может не совпадать с точкой зрения автора