«Человека заменит не ИИ, а другой человек»: как используют ChatGPT и кто этого боится
Кто и как уже начал применять генеративный ИИ в работе
Пока школьники и студенты тестируют возможности генеративного искусственного интеллекта в области выполнения домашних заданий и дипломных работ, некоторые компании уже начали пытаться применять их для решения своих задач.
Компания Microsoft, инвестор разработчика популярного ChatGPT, стала одной из первых, встроив чат-бота в свой поисковик Bing. Правда, не обошлось без странностей. После того, как пользователи начали замечать, как ИИ сообщает, что у ее есть чувства, раскрывать планы захватить мир, а также отзываться на кодовое имя Sydney (предыдущая версия чат-бота Bing, которую закрыли после того, как она начала угрожать пользователям и в целом вести себя деструктивно), этой языковой модели просто запретили отвечать на запросы, связанные с чувствами, а также реагировать на имя Sydney — при его упоминании она заканчивает диалог.
Функцию чат-бота с искусственным интеллектом встроили в свои сервисы такие компании как Snap — пользователям Snapchat он помогает с планами на выходные и поисками рецептов разных блюд, сервис доставки Instacart — там чат-бот может помочь выбрать нужные продукты взамен отсутствующих или подсказать, что нужно для определенного блюда, Salesforce добавил чат-бота в популярный мессенджер Slack, а в приложении для изучения иностранных языков Speak ИИ имитирует реального собеседника. Популярный сервис для изучения иностранных языков Duolingo также анонсировал новую функцию Duolingo Max на основе языковой модели GPT-4. Другие же компании, тоже заметив появление нового инструмента на рынке, предпочли проявить осторожность. Крупные международные банки, такие как JPMorgan Chase, Bank of America, Goldman Sachs и Deutsche Bank запретили своим сотрудникам пользоваться ChatGPT. Ограничение на использование чат-бота ввела для своих работников и компания Amazon, который отдельно призвал их не делиться с ботом конфиденциальной корпоративной информацией. В то же время, продавцы, выставляющие свои товары на маркетплейсе активно используют для составления описания своих товаров.
Такие модели, как ChatGPT от OpenAI и LaMDA от Google, могут выполнять множество языковых задач: перевод, генерация разных типов текста, поиск информации. Эти же модели можно преобразовать к другие генеративные инструменты. Например, Copilot от Microsoft обучается на репозиториях GitHub и умеет писать код. А DALL-E от OpenAI генерирует реалистичные изображения.
Как пишет издание Moneycontrol, ссылаясь на исследование платформы для поиска работы Resumebuilder, в половине из тех американских компаний, которые начали применять ChatGPT, уже заменили им своих сотрудников. По данным консалтинговой компании Gartner половина из опрошенных ими руководителей HR-отделов компаний прямо сейчас работают над составлением корпоративных правил по использованию чат-ботов на основе генеративного ИИ. Как пишет Bloomberg, сервисом ChatGPT начали пользоваться «ранние последователи» из числа программистов, консультантов и других профессионалов, которые пишут с его помощью коды, электронные письма и отчеты, часто не ставя об этом в известность руководство.
Массовая безработица и другие угрозы человечеству
Тем временем, об опасностях новых языковых моделей начали беспокоиться не только банки и сотрудники отделов кадров, но и техно-визионеры. В конце марта более 1000 человек, включая Илона Маска, Юваля Ноя Харари и Стива Возняка, призвали остановить обучение систем искусственного интеллекта более мощных, чем GPT-4. Пауза, по их мнению, нужна, чтобы создать, внедрить и апробировать общие протоколы безопасности. Иначе, предостерегают они, ИИ заменит людей. На момент публикации открытое письмо подписали почти 13 000 человек.
В письме среди прочего говорится: «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы будем уверены, что их эффекты будут положительными, а связанные с ними риски — управляемыми».
Один из рисков, связанных с широким внедрением сервисов на основе ИИ, о котором говорят довольно давно — всплеск безработицы. В 2020 году экономист из Массачусетского технологического института Дарон Аджемоглу посчитал, что каждый дополнительный робот на производстве заменяет в среднем около 3,3 рабочих мест в США. В опубликованном в марте 2023 года исследовании банка Goldman Sachs говорится, что если генеративный ИИ реализует свои потенциальные возможности, то он сможет автоматизировать 300 млн рабочих мест с полной занятостью во всем мире. Для этого исследователи изучили рабочие места в США и Европе и выяснили, что на этих территориях ИИ может заменить ⅔ рабочих мест, после чего экстраполировали данные на весь мир. Также по оценке Goldman Sachs, если ИИ окажет существенную помощь в работе, то мировой ВВП увеличится на 7%.
Портал SuperJob посчитал, что 17% россиян опасаются потерять работу из-за автоматизации и ИИ. Они переживают, что их рабочие обязанности сократят или вовсе перестанут быть востребованными. Однако 43% не боятся ИИ и большинство из них уверенно, что ИИ не заменит человека.
«Человека заменит не искусственный интеллект, а другой человек, который будет пользоваться искусственным интеллектом, — считает Александр Крайнов, директор по развитию технологий искусственного интеллекта компании «Яндекс». — Искусственный интеллект — это просто следующий способ сделать так, чтобы один человек за единицу времени производил больше благ. Многие профессии будут со временем трансформироваться под влиянием технологий. То есть произойдет, во-первых, постепенная трансформация известных нам профессий, а во-вторых, перемещение людей из одних профессий в другие, возникшие в результате развития ИИ. Эти процессы будут проходить довольно плавно».
Научный руководитель исследовательского центра «Сильный искусственный интеллект в промышленности» ИТМО Александр Бухановский тоже считает страхи перед массовой безработицей избыточными. По его мнению, с помощью ИИ проще имитировать действия человека в быту, чем профессиональные навыки. «Генеративные нейросети — это просто математический аппарат, который может синтезировать любые цифровые объекты с заданными свойствами. Но на практике все зависит от структуры объектов и от объемов данных, на которых обучается сеть. Так, современные большие языковые модели (например, GPT-4) хорошо генерируют структуры в символьной записи, и потому с легкостью пишут тематические тексты или коды программ. А вот, например, в лоб решить задачу мастер-планирования территории в архитектурной компании — уже труднее. И данных для обучения не так много, и не всегда дообученная на их основе универсальная нейросеть будет эффективной. Тем не менее, структура нейросетевых моделей позволяет дообучать их практически на любых данных. Но вот объяснить результаты их работы, увы, сложно», — говорит Бухановский.
Операционный директор стартапа «Цельс», использующего искусственный интеллект для медицинского скрининга, Никита Николаев тоже видит в ИИ технологиях не угрозу, а возможности. «Использование ИИ значительно повышает уровень выявления патологий. Однако, говорить о том, что они могут заменить рентгенологов нельзя. Наиболее вероятным сценарием является то, что искусственный интеллект станет привычной частью рабочего процесса врачей, как в свое время такой частью стали медицинские информационные системы».
Исполнительный директор ООО «ДиСи Инжиниринг» Глеб Антипов говорит, что изменения на рынке труда начнутся, и очень скоро, однако скорее всего первыми внедрять GPT для решения корпоративных задач будут небольшие организации, ограниченные в ресурсах, где один человек и до этого совмещал несколько разных функций. «ChatGPT облегчит и улучшит результат такой работы, но заменить им опытного, развитого специалиста пока ещё будет сложно», — считает Антипов.
Как компании и государство регулируют ИИ
Развитие искусственного интеллекта дошло до стадии, когда захватило внимание всех людей — от школьников и студентов до руководителей корпораций и глав государств. Что привело к новым ограничениям. В Италии правительство запретило ChatGPT, потому что OpenAI незаконно собирала личные данные пользователей и в ней не было системы проверки возраста, чтобы предотвратить доступ несовершеннолетних к неприемлемым материалам. «Мы активно работаем над сокращением количества персональных данных при обучении наших систем ИИ, таких как ChatGPT, потому что мы хотим, чтобы наш ИИ узнавал о мире, а не о частных лицах», — заявили в компании. — Мы также считаем, что регулирование ИИ необходимо».
В то же время в Великобритании не планируют устанавливать жесткие правила для ИИ. Там правительство предпочитает «легкий подход» к регулированию искусственного интеллекта. Однако в течение года в стране выпустят рекомендации от существующих регуляторов. Также появится «пробная песочница, чтобы помочь компаниям проверить ИИ на соблюдение правил, прежде чем выйти на рынок».
На фоне такой озабоченности в отношении этичности ИИ, новость о том, что в марте в рамках сокращений Microsoft уволила всю команду по этике искусственного интеллекта, вызвала некоторое недоумение у мировой общественности — и у Илона Маска. Компания заявила, что «за последние шесть лет увеличилось количество сотрудников в продуктовых командах и в Управлении ответственного ИИ, которые, как и все в компании, следят за соблюдением принципов работы ИИ». Но, по словам сотрудников, именно сокращенная команда по этике и обществу играла ключевую роль в том, чтобы принципы ответственного ИИ действительно отражались в дизайне конечных продуктов.
Уволенные сотрудники заявили, что по мере того, как Microsoft стремилась опережать конкурентов в области инструментов ИИ, руководство все меньше интересовалось долгосрочными стратегиями и этической стороной проблемы.
Уволенные сотрудники также опасаются, что выявленные ими зоны риска проигнорировали. В частности, они упоминают свой отчет по продукту Bing Image Creator, где используется нейросеть DALL-E. В нем говорилось, что при тестировании сервиса было обнаружено, что с помощью простой подсказки, включающей только имя художника и материал (живопись, печать, фотография или скульптура), «сгенерированные изображения почти невозможно отличить от оригинальных работ». На фоне того, что в прошлом году OpenAI передал пользователям полные права на образы, сгенерированные с помощью DALL-E, команда по этике опасалась репутационных рисков для Microsoft в случае, если злоупотребления со стороны пользователей причинят ущерб авторам и их наследникам.
«Во многих странах постепенно сфера ИИ подвергается регулированию: такие нововведения как телемедицина, финансовые советы или обсуждение любых личных данных должны быть надежно проверены на безопасность и соответствие ценностям. Например, в России на площадке Альянса в сфере ИИ был разработан Кодекс этики в сфере ИИ, к которому уже присоединились более 170 организаций: ведущие российские технологические компании, разработчики, представители научного сообщества, государственных органов и некоммерческих организаций. Кодекс этики задал ориентиры для развития именно «ответственного» ИИ, ориентированного на соблюдение прав человека», — комментирует Татьяна Шаврина, руководитель команды AGI NLP SberDevices и научной группы NLP Института искусственного интеллекта AIRI.
Среди представителей компаний, так или иначе связанных с ИИ, эта точка зрения преобладает, однако есть и другие голоса. Так человек, которого можно назвать одним из главных пропагандистов критического мышления, автор книги «Гарри Поттер и методы рационального мышления» и сооснователь и Института Сингулярности по созданию Искусственного Интеллекта Элиезер Юдковский написал крайне апокалиптическую колонку для журнала Time под названием «Пауза в разработках ИИ не поможет. Мы должны полностью их остановить». В колонке он пишет: «Наиболее вероятным результатом создания сверхчеловечески умного ИИ при любых обстоятельствах, отдаленно напоминающих нынешние, будет то, что буквально все на Земле умрут».
Юдковский утверждает, что источник опасности в том, что у нас пока нет возможностей контролировать искусственный интеллект, более мощный, чем человеческий, а появление такого ИИ сравнивает с враждебной инопланетной цивилизацией, воспринимающей человечество как очень глупых и медленных существ. Он также обращает внимание на то, что ситуация, когда разработчики не могут точно сказать, обладает ли GPT-5 самосознанием, уже должна вызывать крайнюю степень тревоги. «Если вы не уверены, значит вы понятия не имеете, что вы делаете, это опасно и нужно это немедленно прекратить». Он подчеркивает, что речь идет не о том, что невозможно выжить, создав что-то, что «умнее, чем вы», но это выживание требует более высокого уровня развития науки, чем текущее. «Мы не готовы. Мы не станем существенно более готовыми в обозримом будущем. Если мы продолжим это, все умрут, включая детей, которые этого не выбирали и не сделали ничего плохого», — заключает он свое эсхатологическое пророчество.
Будущее искусственного интеллекта
Искусственный интеллект — это одна из составляющих Четвертой промышленной революции. Билл Гейтс в своем блоге пишет, что за всю жизнь видел две революционных технологии. Первая — это графический пользовательский интерфейс. Он стал предшественником операционных систем и помог сделать компьютерные вычисления доступными. Вторая — модель GPT от OpenAI. Гейтс сравнил развитие ИИ с созданием микропроцессора, персонального компьютера, интернета и мобильного телефона. Точно так же искусственный интеллект изменит обучение, путешествие, медицину, коммуникацию. По мнению Гейтса, это изменит целые индустрии, а успех компаний будет определяться тем, как они научатся применять эту технологию.
По данным McKinsey, за последние пять лет внедрении ИИ увеличилось более, чем в два раза. В 2017 году всего 20% респондентов заявили о том, что используют ИИ хотя бы в одной сфере бизнеса, в в 2022 — достигла 50%. При этом своего пика внедрение достигло в 2019 году — 58%. Среди самых популярных возможностей ИИ, которые используют компании, — автоматизация процессов (RPA), компьютерное зрение и понимание естественного языка, виртуальные агенты и глубокое обучение.
Уже сейчас ИИ активно используется для автоматизации рутинных задач. «Следующим большим событием станет выпуск плагинов для GPT, которые позволят дообучать нейросеть под задачи конкретной компании. И тогда, например, GPT сможет, изучив базу знаний компании, самостоятельно вести поддержку клиентов. Или, можно будет через нейросеть в пару кликов найти и заказать самые дешевые билеты из Берлина в Барселону в марте. Для меня ИИ — это мощнейший инструмент решения задач и создания новых возможностей. Чтобы не остаться в стороне, точно стоит учиться пользоваться этим инструментом хотя бы на бытовом уровне», — комментирует будущее нейросетей сооснователь GPT4Telegrambot и InVenture Studio Павел Белов.
Александр Крайнов предполагает, что в будущем будут появляться узкие профессионалы от искусственного интеллекта, такие как ИИ-юрист, которого особенно тщательно обучили под юридические задачи. «Мне кажется, что здесь роль компаний из отдельных индустрий будет очень важна, потому что без компаний, которые занимаются юриспруденцией, будет сложно сделать хорошего юриста, без компании, которая занимается нефтегазодобычей, будет невозможно создать ИИ, который будет писать для таких компаний профессиональную документацию». Крайнов также полагает, что развитие ИИ изменит отношение в обществе к образованию. «Раньше мы жили в парадигме, что если ты чему-то научился и получил определенную профессию, то это на всю жизнь, а учеба — занятие для молодежи, — говорит он. — Я думаю, что в будущем люди поймут, что учиться на протяжении всей жизни выгодно, и нет такого возраста, в котором невозможно поменять род деятельности».