Смена технологического уклада становится неизбежной: слишком много значит развитие новых технологий для крупнейших корпораций. Готовы ли мы к вызовам, которые ставит для человечества в целом появление искусственного интеллекта, генетическое редактирование, беспилотные автомобили?
Технологии, которые могут быть изобретены, — будут изобретены
Технологический образ будущего создается в первую очередь крупными технологическими компаниями. Поэтому я не волнуюсь за то, что этот образ действительно будет реализован — корпорации зарабатывают на этом деньги. Этот образ может быть реализован раньше или позже. Где это произойдет? Возможно, в США (и, соответственно, в Кремниевой долине), введут запрет на все исследования — мало ли, кто придет к власти… Но это лишь замедлит развитие технологий. В мире найдется место для них — будь то «пиратская» Исландия (премьер-министр страны — из Пиратской партии) или незаконный «биоофшор» на маленьком острове в Тихом Океане. «Геометрия Лобачевского» была открыта почти одновременно и Карлом Гауссом, и Яношом Бойяи, потому что все читали примерно в одно и то же время одни и те же книги и думали примерно с одной и той же скоростью. Сегодня части мира связаны гораздо сильнее, чем во времена Лобачевского. Статья, попавшая в препринт, доступна всему миру, — она еще и попадет в массовую email-рассылку. Наука стала международной и открытой. Поэтому если компания или научная группа в одной точке мира создает некоторую технологию, то почти наверняка мы найдем компанию или научную группу, которые работают параллельно с первой в другой точке планеты. А скорее всего, мы увидим несколько конкурирующих групп исследователей. Вспомним хотя бы пример технологии генетического редактирования CRISPR/Cas9 (подробнее о ней — в материале Forbes), — за патенты на нее бьются несколько университетов. У каждой из научных групп — свои амбиции. Порой не только финансовые амбиции и не только желание славы. Есть и более глубокие мотивы.
Есть теория, что отчасти направление технического прогресса есть следствие глубинных мечтаний человечества. Взять хотя бы робототехнику и искусственный интеллект: создавая их люди, в каком-то смысле пытаются уподобиться богам. Ф Создание существа «по образу и подобию» человека — один из вызовов человечества. В целом мы часто видим, что многие глубинные мечты сначала находят отражение в мифах и религии, а впоследствии, с развитием технологий, обретают реальную форму. Можно вспомнить мечту человека о полете: самолетам предшествовала легенда об Икаре и Дедале.
В итоге, если научная группа подойдет к созданию технологии, некоторые применения которой могут быть опасны, вряд ли у кого-то хватит осознанности остановиться. Да и должны ли мы возлагать ответственность за применение технологии (а почти все технологии можно применить негативно) на изобретателя? Так же, как технологии лишь расширяют наше пространство выбора, а мы его совершаем, так и изобретатель технологии лишь дает нам выбор.
Мы можем влиять на то, насколько комфортным будет новый мир
Итак, образ технологического будущего более-менее ожидаем. Вопрос лишь в том, какие ценности мы заложим в нашу жизнь с приходом новых технологий, во взаимодействие с ними. Вспомним башни контроля сознания из романа «Обитаемый остров» Стругацких. Как не допустить такого сценария применения нейротехнологий? Будет ли генетически модифицированный ребенок объектом издевательств сверстников в школе? Будет ли киборг ущемлен в правах, потому что он не такой, как все? Будем ли мы видеть кафе «только для полностью органических существ»? Моя гипотеза в том, что ответы на эти вопросы лежат в большей степени не в области технологий, а в области гуманитарных инициатив («гуманитарных технологий», если хотите).
Шок будущего
Не только ценности определяют взаимодействие с технологиями, важен и сам процесс их распространения и внедрения.
Рассмотрим процесс внедрения технологии. Например, диоптрийные очки. Они вводились с 1284 года на протяжение 300 лет и процесс этого внедрения был плавным и незаметным. Теперь рассмотрим Google Glass. Они вводились с 2014 года на протяжении одного года, причем по многим показателям внедрение этой технологии можно считать провалом. Если кто-то появлялся в Google Glass в общественных местах, это провоцировало конфликты. Первые пользователи даже подвергались избиениям за то, что пришли в «гуглоочках« на вечеринку.
Еще один пример высокой скорости развития технологий, вызвавшей актуализацию этических барьеров общества, — редактирование генома. Технология редактирование генома (CRISPR/Cas9) сейчас у всех на слуху. Однако редактирование генома человека запрещено законодательством большинства стран во многом из-за соображений этики. Тем не менее в начале 2015 года китайские ученые (группа университета Сунь Ятсена) первыми все же провели эксперимент по редактированию человеческого генома человеческих эмбрионов. Этические комиссии не не позволили представить результаты эксперимента в широкоизвестных журналах Nature и Science. Статья вышла в журнале Protein & Cell. В ходе эксперимента редактированию подвергся генетический материал 54 оплодотворенных яйцеклеток. В 28 из них разрывы цепочки ДНК совпали с планируемыми, но только в четырех замененный участок оказался нужным. Были обнаружены разрывы и в незапланированных фрагментах генетической цепочки. Связаны ли ошибки с условиями постановки эксперимента или с особенностями применения технологии именно для человеческих яйцеклеток — пока ответа на этот вопрос нет. Требуется повторение эксперимента другими научными коллективами. Интересно то, что спустя восемь месяцев после экспериментов в Китае в Великобритании тоже разрешили эксперимент по редактированию генома человеческих эмбрионов. Разрешение получила исследовательская группа из Института Френсиса Крика. Великобритания стала второй страной в мире, где разрешены эксперименты с человеческими эмбрионами.
Американская биотехнологическая компания Editas Medicine получила $120 млн частных инвестиций на разработку лечения генетических заболеваний с помощью технологии CRISPR/Cas9. Первым таким заболеванием должен стать амавроз Лебера десятого типа . Это разновидность наследственной слепоты, вызванной повреждением одного из генов, отвечающих за работу светочувствительных клеток сетчатки.
Заявленная этическая причина этих ограничений заключается в риске, что если будут пропущены ошибки в редактировании генома эмбриона, родившийся впоследствии человек может быть обречен на раннюю смерть либо на мучения. С этической точки зрения есть разница — является ли эта ранняя смерть или мучения следствием случайности или они результат действий людей. По этой же причине запрещено имплантировать генетически отредактированные яйцеклетки суррогатной матери. Однако, многие исследования, в том числе российские, показывают, что есть и менее рациональные этические барьеры общества — люди попросту не готовы к такому сильному внедрению в свою биологическую идентичность.
Стоит отметить, что кроме этических барьеров, здесь важны геополитические и экономические. Видимо, законодательные запреты на работу с человеческим геномом будут постепенно ослабевать, а затем — сниматься, причем сработает эффект домино. Из примера выше мы можем видеть, что Великобритания столкнулась с выбором — изменить законодательство либо проиграть технологическую гонку? Страна выбрала первый вариант.
Оказывается, что важна не сама скорость развития технологий, а отношение периода ее внедрения к среднему периоду восприимчивости человека к тому сроку, в течение которого мы можем воспринять изменения окружающего мира и практически безболезненно изменить нашу жизнь в соответствии с новой средой обитания. Именно поэтому гораздо чаще новые технологии используются молодыми людьми (по данным различных опросов, в среднем, возраста 40–50 лет). Но следует отметить, что с учетом развития медицины, все больше пожилых людей продолжают быть вовлечены в активную общественную и технологическую жизнь, поэтому этот показатель растет, хотя и все равно не так быстро, как развиваются технологии.
Можно было бы предположить, что раз технологии развиваются экспоненциально, то и скорость нашего к ним приспособления и привыкания к ним тоже ускоряется экспоненциально. Но это не так: с некоторым допущением в точности можно сказать, что технологии и мир вслед за ними изменяются со скоростью экспоненты, а «период восприятия» изменяется линейно, поэтому отставание всегда будет присутствовать.
Это тот самый «шок будущего», о котором писал американский социолог и футуролог Элвин Тоффлер: «Захваченный турбулентным потоком изменений, вынужденный принимать значительные, быстро следующие друг за другом решения, жертва шока будущего чувствует не просто интеллектуальное замешательство, а дезориентацию на уровне персональных ценностей. По мере того как скорость изменений возрастает, к этому замешательству подмешиваются самоедство, тревога и страх. Он становится все напряженнее, он устает. Он может заболеть. Поскольку давление неумолимо усиливается, напряжение принимает форму раздражительности, гнева, а иногда выливается в бессмысленное насилие.«
Порой бывает так, что этические барьеры сами по себе проявляются не столь явно, но реализуются через законодательные ограничения. Несмотря на успехи беспилотных автомобилей, они разрешены далеко не во всех странах, и даже в тех, где разрешены, сторонние разработчики сталкиваются с проблемами. Показателен пример хакера Джорджа Хоца, который представил устройство Comma One. Оно всего за $1000 позволяет установить автопилот на «простой» автомобиль. Его инициатива столкнулась на бюрократизм властей. 28 октября 2016 года Джордж Хоц сообщил о получении такого письма от Национального управления безопасностью движения на трассах (NHTSA):
«Мы озабочены, что ваш продукт подвергает риску безопасность ваших пользователей и других участников дорожного движения. Мы настоятельно рекомендуем отложить продажу или вывод своего продукта на дороги общего пользования до тех пор, пока не убедитесь в его безопасности». Администрация NHTSA потребовала от Джорджа Хоца в соответствии с требованиями закона Safety Act ответить на это письмо и прислать указанную в письме информацию по продукту.
Если что-то новое плавно появляется за, скажем, сотню лет, человечество может к этому новшеству приспособиться, как бы сильно оно не меняло нашу жизнь. А если что-то появляется за два года, многие не успевают психологически адаптироваться к изменениям, принесенным новой технологией, какой бы нужной и полезной эта технология ни была. И на примере негативного отношения к первым покупателям Google Glass мы видим, что даже молодые люди не успевают подстроиться под новый мир.
Это приводит к тому, что людям часто бывает некомфортно в быстро меняющемся технологическом мире. Как следствие — страх человека перед новыми технологиями. В генетике — редактирование генома. В нейротехнологиях примером могут служить инвазивные интерфейсы. Страх столь велик, что даже во многих произведениях научной фантастики люди отождествляют свои страхи с отрицательными персонажами: например, борги в «Звездном пути» — киборги, которые заботятся в первую очередь об «ассимилировании» всего живого для все большего технологического совершенствования самих боргов.
Является ли эта некомфортность «родовым» недостатком самих технологий? Нет, сами технологии не «плохие» и не «хорошие». Психологическое влияние на нас оказывают, скорее, новые «протоколы» взаимодействия между людьми, новые противопоставления состояний человека (виртуальная реальность — реальная реальность, подключенность-неподключенность к нейроинтерфейсу). А все это больше относится не к технологическим, а к гуманитарным изменениям. Именно гуманитарные изменения не поспевают за технологиями, как линейная функция не поспевает за экспонентной.
Технологии: быстрые, мощные, общедоступные.
Раньше чтобы навредить глобальной цивилизации, нужно было создать ядерное оружие, а это требовало сложных компетенций, многих лет НИОКР и огромных капиталовложений. Теперь такой вред можно нанести, например, редактированием генома вируса, и это не требует ни большого числа людей, ни денег, ни времени. Набор для редактирования генома комнатных растений вы можете купить себе или своему ребенку за $100. Это приводит к тому, что в разы больше игроков получают доступ к таким возможностям, А значит, нам придется научиться гораздо лучше договариваться. Доверять. Не стоит ли попробовать заменить ее на риторику кооперации и доверия? «Качество, которое я хотел бы улучшить — это эмпатия, сочувствие. Она удерживает нас в состоянии мира и любви». — сказал в одном из интервью Big Think Стивен Хокинг.
Люди зря боятся новых технологий. Бояться нужно людей
До изобретения cильного искусственного интеллекта (теория сильного искусственного интеллекта (ИИ) предполагает, что компьютеры научатся самостоятельно мыслить и осознавать себя — Forbes), человек остается единственным существом, способным к целеполаганию. Ни одно приложение мессенджера не отправило свой ключ шифрования спецслужбам по собственному желанию. Ни одна молекула химического оружия не имела собственного желания нас уничтожить. Лишь целеполагающий человек может использовать технологии во благо или во вред. С любым набором технологий можно построить как свободное общество, так и тоталитаризм. Технологии этически нейтральны, их наличие лишь расширяет наше пространство выбора.
Идентичность. Кто это — человек будущего?
В первую очередь стоит рассматривать технологии, меняющие человеческую идентичность, потому что варианты применения таких технологий могут изменить образ будущего в самом широком спектре сценариев: от наиболее позитивных до наиболее негативных. Речь идет о биотехнологиях (в том числе редактирование генома), нейротехнологиях, киборгизации и других. Какой может быть новая идентичность человечества, наше самоопределение? В век, когда критерий «сотворен Богом» уже устраивает далеко не всех, а критерий, предложенный новым временем — «определенный геномом homo sapience» уже разваливается под натиском CRISPR, когда нейронные сети могут копировать нас до степени прохождения визуального, текстового и прочих Тестов Тьюринга, что остается нам, людям, как критерий человечности, кто это такой — человек ближайшего будущего?
Будущее как пространство личной ответственности
Как можно было бы решить эти проблемы? Все мы наверняка замечали, что гораздо сложнее терпеть те неудобства, которые нам навязали извне, и гораздо проще — те, которые есть следствия наших собственных решений. Продолжая эту мысль, одним из вариантов решения проблемы принятия инноваций является переход от отношения к будущему как к неизбежным обстоятельствам, изменениям (не важно — плохим или хорошим), которые нам навязываются, к отношению к будущему как к пространству нашей персональной ответсвенности, пространству творчества, недетерминированной системе. Было бы целесообразно не только сформировать образ желаемого будущего, но и увидеть свою личную позицию в нём.
Если проследить этапы автоматизации нашей жизни, мы увидим, что с самого начала технологической истории человечество делегировало машинам все больше: сначала физический труд, потом ——хранение информации и вычисления, затем — анализ данных. И вот сейчас технологии глубокого обучения нейронных сетей (подробнее о них — в материале Forbes) позволяют на основе данных создавать новый контент, принципиально отличающийся от исходного. Делегируя отдельные функции нашего сознания технике, мы не становимся более ленивыми или глупыми — наоборот, мы это делаем для того, чтобы работать с более сложными системами. Компьютер обрабатывает информацию, чтобы мы могли работать с метаинформацией, с задачами более высокого уровня. Допустим, надо построить адронный коллайдер. Ни один человек, ни группа людей не способны удержать в голове настолько сложную систему. Нам остаётся либо ждать, пока мы эволюционируем до такого уровня, когда сможем держать в голове все данные о коллайдере, либо отдавать всё больше функций по обработке этой информации компьютеру. То есть если бы нам не помогал компьютер, мы бы не стали более умными, чтобы построить коллайдер без его помощи, — мы бы не построили его вовсе.
Но это тенденция показывает нам, что ее экстраполяция приведет к тому, что уже при нашей жизни большая часть деятельностей будет передана роботам и ИИ, то людям останется лишь создание смыслов самого высокого уровня, целеполагание и коммуникация. Люди без собственной повестки будут выдавливаться из общества (быть может, они будут получать, скажем, безусловный базовый доход, — но только лишь финансовая независимость делает нас счастливыми?).
А вот с целеполаганием и собственной повесткой у нас проблемы — мы просто не готовы к такому будущему. Я люблю задавать людям вопрос: что бы вы делали, если бы вам не нужно было зарабатывать деньги? Это очень сложный вопрос. Нам с детства говорили «учись или будешь голодать», «работай или будешь голодать». В итоге мы почти не можем выстроить проактивную позицию по отношению к миру. Наш мир в большей степени мир наемных сотрудников, а не целеполагающих людей. У этого вопроса есть и следующий уровень сложности: а если все же я сам себе хозяин, то и вся ответственность на мне. Я смотрю сериалы дома после работы, а не помогаю детям в Африке, не потому, что мне самому нужно работать и зарабатывать деньги, чтобы не умереть, а потому, что это мой выбор, и мне нужно его принять, так ведь? Ну, а дальше есть третий уровень сложности — а если все же менять мир, то как? Все дороги открыты, что выбрать? Это проблема «Буриданова осла».
Мы летаем в космос, но не очень далеко, а закон Мура упирается в квантовые краевые эффекты. Мир директивного управления человеческой деятельностью, мир, живущий в традиционной, иерархической парадигме, достиг многого, но, видимо, мы подходим к барьерам, которые он решить не способен. И, возможно, именно критическое увеличение числа возможных форм деятельности, которое мы получим, если сможем совместить введение безусловного базового дохода и помощь людям в нахождении новых смыслов, поможет нам преодолеть эти барьеры. Поэтому введение безусловного базового дохода — есть необходимое, но не достаточное условие.
И какое же это будущее? Вечная дискуссия — идеалы против методов
Желаемый образ будущего для всех разный, конечно, но мне, например, хочется формировать будущее, включающее ценности: выживание и развитие человечества, свобода выбора, разнообразие, уважение к человеческому достоинству и других людей. Но как нам совместить работу на все эти разные образы будущего, формируемые разными людьми? Тут стоило бы использовать принцип «свобода одного человека заканчивается там, где начинается свобода другого человека». Это нас подводит к идее: важны не столько цели и идеалы, сколько методы, с которыми мы идем к ним. Мораль идеалов приводит к тоталитаризму, мораль методов — к гуманизму. Очень важно, какие ценности и методы мы используем сегодня для прототипировании будущего. Наша жизнь сейчас перетекает в будущее так, что мы и не замечаем этого.