Вопрос имиджа: к чему приведет игнорирование связанных с распространением ИИ рисков
На самом деле проблему доверия к ИИ можно решить, только если честно и открыто обсуждать как его достоинства, так и угрозы.
Возможные негативные эффекты распространения ИИ можно грубо разделить на три категории:
- риски, связанные со сбором данных;
- негативное воздействие на рынок труда;
- создание проблем для общения людей и их гражданской активности.
ИИ против потребителя
Первая группа рисков связана с тем, что системы ИИ требуют для своей работы больших объемов данных, поэтому и госорганы, и частные компании все активнее собирают детальную информацию о пользователях, покупателях и гражданах. Такая практика может иметь целый ряд нежелательных последствий. Во-первых, это нарушение приватности. Компании и цифровые платформы могут собирать лишнюю информацию о поведении отдельных клиентов, что позволит им использовать ценовую дискриминацию или вторгаться в частную жизнь граждан.
Во-вторых, обладание большими объемами данных становится конкурентным преимуществом крупных фирм и платформ. Это не только дает им дополнительную возможность извлекать прибыль из потребителей, но и подавляет конкуренцию со стороны менее крупных, но потенциально более эффективных компаний.
В-третьих, детальная информация о поведении клиентов и передовые технологии ИИ позволяют эксплуатировать психологические уязвимости клиентов, о которых те даже и не догадываются. Так, глава Netflix Рид Хастингс открыто признавался, что одним из основных конкурентов является ночной сон. И тот факт, что компания успешно использует продвинутые методы анализа данных для победы в этой конкуренции, на самом деле очень плохая новость с точки зрения здоровья пользователей.
Технологии эксплуатации
Использование ИИ и других методов автоматизации заметно влияет на рынок труда. Распространение подобных технологий позволяет бизнесу сократить издержки, но во многом за счет работников, которые либо теряют свои места, либо соглашаются работать за меньшую зарплату. Этот эффект может быть скомпенсирован созданием новых и более производительных рабочих мест, так что те же работники при должном переобучении смогут в итоге выиграть.
Однако эта логика работает, если «хороших» рабочих мест создается больше, чем исчезает «плохих». Существующие сейчас во многих странах стимулы, в том числе налоговые, подталкивают компании скорее к общему сокращению расходов на сотрудников, чем к перераспределению их в сторону «хороших» рабочих мест.
В результате мы можем наблюдать чрезмерную автоматизацию, которая грозит серьезными социальными последствиями.
Еще одной проблемой для сотрудников может стать слишком большой контроль за их поведением со стороны работодателя — постоянный мониторинг данных о перемещениях, переписке, общении в мессенджерах и даже посещении туалетов. Это позволяет компаниям получать максимальную производительность труда, но может навредить физическому и психологическому здоровью сотрудников. Неслучайно активно использующий такие системы Amazon уже не раз оказывался в центре скандалов из-за обвинений в эксплуатации персонала.
Большие Братья
Наконец, ИИ может повлиять на то, как люди общаются между собой и на их гражданскую активность. Социальные сети активно используют анализ данных для того, чтобы увеличить время, которое пользователи в них проводят. К сожалению, при этом тоже используются человеческие слабости. Соцсети перегружены негативным и шокирующим контентом, который лучше привлекает внимание пользователей, но в итоге ведет к ухудшению их психологического самочувствия и даже провоцирует депрессии. Кроме того, используемые соцсетями алгоритмы подталкивают к погружению в «информационные пузыри», в которых мы получаем только ту информацию, которая соответствует уже имеющимся у нас представлениям о мире. Результатом, в частности, становится растущая политическая поляризация.
Не менее угрожающим является и использование новейших цифровых технологий для контроля за гражданской активностью со стороны государства, грозящего превратиться в полноценного Большого Брата.
Наиболее радикальным примером такого плотного контроля является система социального рейтинга в Китае. Однако во время пандемии с похожими проблемами столкнулись и граждане многих других стран, обнаружившие, что государство может в буквальном смысле следить за каждым их шагом. Неслучайно угроза выходящей из-под контроля слежки со стороны государства подтолкнула нобелевского лауреата Жана Тироля написать статью о «цифровой дистопии».
Большинство этих угроз, связанных с развитием цифровых технологий, пока еще остается гипотетическим, а выгоды от использования этих технологий могут с лихвой перекрыть возможные негативные последствия. Но игнорирование рисков лишь увеличивает их шансы на реализацию, так что поиск реальных способов решения этих проблем будет гораздо более эффективным, чем очередная PR-кампания.
Мнение редакции может не совпадать с точкой зрения автора