Думай сам: когда человечество создаст сильный ИИ и как это отразится на обществе
Сильный и слабый ум
Под самостоятельным мышлением в контексте ИИ понимается его способность функционировать и принимать решения без прямого вмешательства человека. Эта способность — ключевой признак сильного ИИ, или AGI. Самостоятельное мышление предполагает наличие следующих навыков:
- умения адаптироваться к выполнению новых, заранее не запрограммированных задач;
- обучаемости на основе собственного, в том числе единичного, опыта;
- критического мышления;
- способности ставить себе новые задачи.
Такая система будет способна адаптироваться к любой новой задаче без необходимости специального программирования со стороны человека. Она сможет разложить сложную задачу на несколько простых, собрать необходимую информацию, обработать результаты и сделать логические выводы, предложить дальнейшие шаги и обучиться на полученном опыте. При этом сильный ИИ должен уметь взаимодействовать не только с цифровым миром, но и с физическим.
Современные же алгоритмы ИИ относятся к категории слабого. Они предназначены для решения узких задач: сгенерировать текст, поиграть в шахматы, спрогнозировать стоимость акций. У подобных систем нет гибкости — они ограничены заданными сценариями использования, а их ответы или действия обычно базируются на данных, которые в них внесли программисты и пользователи.
Мыслить независимо
Хотя современные алгоритмы относятся к слабому ИИ, некоторые из них уже обладают навыками, присущими сильному. Рассмотрим их подробнее.
Генеративные модели. Генеративные нейронные сети, лежащие в основе ChatGPT от OpenAI и Gemini от Google, приобрели впечатляющую обобщающую способность. Она позволяет им адаптироваться и решать задачи, выходящие за рамки первоначальных данных и функций, для которых они были обучены. Например, GPT-4, изначально обученный для генерации текста, близкого к человеческому, освоил принципы программирования и теперь может создавать часто работающий программный код. Многие современные генеративные модели являются мультимодальными, то есть могут работать с различными типами данных — не только с текстом, но и с видео или звуком. Это расширяет их способности анализировать и в будущем взаимодействовать с окружающим миром.
Кроме того, если попросить, эти модели способны разложить сложную задачу на более простые шаги, решить их отдельно и предоставить логически обоснованный ответ. Эта техника известна как «цепь рассуждений» (Chain-of-Thought). Конечно, эти модели не обладают концептуальным и ассоциативным мышлением, присущим человеку. Однако можно сказать, что они начинают проявлять зачатки того, что в будущем станет критическим мышлением.
Обучение с подкреплением. Технология обучения с подкреплением, или Reinforcement Learning (RL), позволяет ИИ учиться на основе собственного опыта, анализируя окружающую среду и испытывая различные стратегии действий. ИИ получает вознаграждение за желаемый результат и штраф — за нежелательный. Его задача — найти такую стратегию, которая позволит заработать максимальное вознаграждение.
Примером применения RL является программа AlphaGo, которая за несколько дней научилась играть в игру го лучше людей. RL также используется в робототехнике для обучения роботов перемещаться в пространстве и взаимодействовать с объектами, а также в промышленности. Например, для оптимизации логистических систем.
В отличие от классического машинного обучения, основанного на предварительно подготовленных данных, в RL агент (ИИ) самостоятельно собирает себе данные для обучения. Эта технология особенно эффективна в областях, не связанных с физическим миром. Например, в компьютерных играх, таких как Minecraft, где алгоритм может провести множество симуляций за короткое время и быстро превзойти человека. Таким образом, RL демонстрирует еще одну характеристику, свойственную сильному ИИ, — способность к самообучению.
Мультиагентные системы (МАС). В мультиагентных системах множество агентов (программ или роботов) координируют действия для достижения общей цели. Они могут собирать информацию, обрабатывать ее и принимать комплексные решения на основе совокупных данных системы. Технология применяется для оптимизации распределенных процессов, таких как управление энергетическими ресурсами или регулирование городского трафика.
Принцип работы МАС напоминает функционирование неокортекса — тонкого слоя нейронов на поверхности головного мозга человека. Нейробиологи доказали его ключевую роль в высших когнитивных функциях, позволяющих нам мыслить абстрактно, заниматься искусством и изучать языки. В процессе эволюции каждая зона мозга специализировалась на определенных задачах, например на обработке зрительной или звуковой информации. Информация от всех участков мозга объединяется неокортексом для формирования комплексного решения. При этом человеческий мозг адаптируется к новым условиям, укрепляя нейронные связи на основе полученного опыта.
По отдельности вышеописанные технологии обладают некоторыми признаками сильного ИИ (зачатками критического мышления, умением обобщать информацию, чтобы подстраиваться под выполнение новой задачи, принимать комплексные решения, обучаться на основе собственного опыта). С учетом стремительного развития технологий можно представить себе ИИ, который бы эффективно объединял способности всех этих технологий и мог бы мыслить самостоятельно. На сегодня создание такой системы все еще является нерешенной задачей, однако уже и не кажется абсолютной фантастикой. Что замедляет этот процесс?
Ограниченный интеллект
Появлению сильного ИИ будут препятствовать некоторые ограничения.
Доступность данных. Обучение ИИ требует огромного количества качественных данных. В исследовании Epoch был сделан вывод, что при текущей скорости использования данных с 2026 по 2050 год может наступить «голодание» по текстовым и зрительным данным. Другим ограничением будет являться доступность данных о физическом мире. Например, для решения таких задач, как обучение роботов перемещаться или изобретение лекарств от рака, необходимо провести эксперименты и собрать данные из результатов. Эти факторы могут ограничить скорость разработки сильного ИИ, а также препятствовать теоретическому экспоненциальному росту способностей ИИ за счет самообучения — тому, что еще называют сингулярностью. При этом использование синтетических данных обладает собственными недостатками и не сможет в полной мере решить проблему дефицита реальных данных.
Законодательное регулирование. До недавнего времени регулирование разработки ИИ было довольно слабым. Нарушения авторских прав и использование чужой интеллектуальной собственности для обучения ИИ без компенсации владельцам привело к ряду судебных разбирательств. Однако в марте этого года Евросоюз принял первый законодательный акт по ИИ, а США объявили о готовности сотрудничать с ЕС в этой сфере. Дальнейшее развитие законодательства увеличит стоимость и ограничит доступность данных, что замедлит развитие сильного ИИ.
Слабая мощность компьютеров. Для разработки ИИ, особенно массивных генеративных нейросетей, требуются огромные вычислительные ресурсы, которые уже сейчас в необходимом объеме доступны только небольшому числу компаний и исследовательских центров. Непонятно, смогут ли текущие методы вычислений обеспечить создание сильного ИИ. Решение может включать как более эффективное использование существующих, так и разработку новых методов, таких как квантовые вычисления. Однако промышленно доступных технологий квантовых вычислений еще не создано.
Ограничения архитектуры и методов ИИ. Для создания сильного ИИ требуются новые прорывы в методах ИИ, подобные появлению архитектуры Transformer, которое спровоцировало резкий рост развития ИИ в последние годы. В отличие от современных ИИ, человек может научиться новым задачам после нескольких попыток, благодаря миллионам лет эволюции. Технология, способная эффективно обучаться на ограниченном наборе данных, обладающая концептуальным и ассоциативным мышлением и умеющая логически обобщать знания, может решить проблемы нехватки данных и вычислительных мощностей.
Из-за неопределенности прогнозы о дате появления сильного ИИ различаются, охватывая период с 2030 по 2060 год. Часть экспертов считают, что сильный ИИ возникнет в течение следующих 30 лет. Поэтому важно начать подготовку к сосуществованию человека и сильного ИИ, учитывая потенциальное глобальное влияние таких технологий.
Возможные последствия
Появление генеративного ИИ сравнивают с промышленной революцией. Сильный ИИ может поставить под вопрос способность человека конкурировать с компьютером в выполнении практически любой работы. Это, очевидно, создаст значительную экономическую ценность, освободив трудовые ресурсы и, возможно, улучшив результаты работы человека. Уже сейчас есть два вполне очевидных вопроса:
- какие задачи оставить людям, а какие — решать с помощью ИИ, включая вопросы ответственности за действия ИИ?
- как перераспределить блага, которые несет внедрение ИИ, чтобы обеспечить гармоничное сосуществование человека и «супермозга»?
Если мы понимаем, что приближаемся к моменту создания сильного ИИ, стоит проработать эти вопросы, включая законодательное регулирование, чтобы ИИ принес человечеству благо, а не создавал новые проблемы.
От стажера к профи во всем
В недалеком будущем мы увидим ИИ, способный самостоятельно мыслить. В ближайшие годы будут присутствовать два тренда — дообучение моделей для конкретных задач и увеличение индустриальной экспертизы. А также развитие критического мышления и прикладного ИИ (actionable AI). Соединив эти тренды, скоро человечество увидит распространение умных помощников, своего рода «ИИ-стажеров». В рамках общей задачи они смогут выполнять несколько подзадач, требующих различных навыков, с вовлечением человека на критически важных этапах. Качество их работы будет сопоставимо с человеческим, но, благодаря вычислительным мощностям, она будет гораздо эффективнее.
Представьте, что ИИ выполняет роль младшего научного сотрудника лаборатории, работающей над созданием лекарства. На текущем этапе развития технологий ИИ может с переменным успехом сделать краткое изложение научной статьи и сгенерировать потенциальных «кандидатов» для вакцины. В будущем ИИ изучит тысячи научных статей, сгенерирует идеи для исследований, проведет необходимые эксперименты, проанализирует результаты. На финальном этапе он обратится к человеку для принятия ответственного решения, при этом минимизировав рутинную работу. После завершения задачи он дообучится на основе обратной связи, чтобы оптимизировать процессы в будущем.
Такой ИИ-стажер будет способен самостоятельно мыслить в рамках заранее установленной системы под контролем человека и с соблюдением строгой политики безопасности, становясь все умнее на основе опыта и обратной связи. Эта концепция схожа с тем, как компании инвестируют в развитие человеческого капитала. Но теперь вместо человека выступает ИИ, который становится все умнее благодаря данным и опыту и является интеллектуальной собственностью компании, аналогично внутреннему ПО.
Выбор того, какие задачи полностью доверить ИИ, будет определяться соотношением риска и экономической ценности. Чем более частый и рутинный процесс в работе, тем точнее ИИ научится его выполнять. И тем выше будет экономическая ценность от автоматизации. Чем ниже потенциальный вред от ошибки, тем безопаснее можно доверить выполнение задачи ИИ. Степень внедрения технологии будет варьироваться от полностью автономного ИИ, через его гибридное использование с различной степенью человеческого контроля, до полного отказа от использования. В итоге, аналогично регулированию финансовых рисков, внедрение будет зависеть от законодательных ограничений и аппетита к риску самих компаний.
Мнение редакции может не совпадать с точкой зрения автора