К сожалению, сайт не работает без включенного JavaScript. Пожалуйста, включите JavaScript в настройках вашего броузера.

Эксперты заявили о риске исчезновения человечества из-за искусственного интеллекта


«Центр безопасности искусственного интеллекта» опубликовал заявление об опасностях искусственного интеллекта, который, по мнению организации, может стать причиной исчезновения человечества. Свои подписи под заявлением поставили ученые, предприниматели и программисты, в том числе «крестный отец ИИ» Джеффри Хинтон и глава OpenAI Сэм Олтмен

«Центр безопасности искусственного интеллекта» (Center for AI Safety) опубликовал заявление об опасностях искусственного интеллекта (ИИ), который, по мнению организации, может стать причиной исчезновения человечества.

«Уменьшение риска исчезновения (человечества) из-за искусственного интеллекта должно стать глобальным приоритетом наряду с другими рисками, грозящими всему обществу, такими как пандемии и ядерная война», — говорится в заявлении находящегося в Сан-Франциско центра.

Свои подписи под ним поставили журналисты, ученые, предприниматели и программисты, в том числе глава компании OpenAI Сэм Олтмен и «крестный отец ИИ», британский ученый Джеффри Хинтон.

 

На сайте центра подробно рассказывается о рисках, которые, по его мнению, связаны с искусственным интеллектом. «Хотя у ИИ есть множество полезных применений, он может быть использован, чтобы привести в действие автономное оружие, продвигать дезинформацию и совершать кибератаки. Хотя системы ИИ работают с участием человека, агенты ИИ становятся все более способны наносить вред сами по себе», — считают в центре. Если ИИ будет и дальше развиваться, это потенциально грозит катастрофическими рисками и может стать угрозой существованию, предупреждают в центре.

Это не первое обращение за последнее время, авторы которого говорят о возможных угрозах ИИ. В марте глава SpaceX, Tesla и Twitter Илон Маск, сооснователь Apple Стив Возняк и более 1000 экспертов и руководителей отрасли по развитию искусственного интеллекта подписали открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. «Мощные системы искусственного интеллекта следует разрабатывать только тогда, когда мы уверены, что их эффекты будут положительными, а риски — управляемыми», — говорится в документе, разработанном Институтом будущего жизни (Future of Life Institute).

 

В мае сооснователь Apple, один из пионеров в области компьютерных технологий Стив Возняк также предупредил, что искусственный интеллект может оказаться полезным для злоумышленников, а созданные с его помощью мошеннические схемы будет сложнее распознать. Возняк отметил, что созданный ИИ контент должен был четко маркирован.

Мы в соцсетях:

Мобильное приложение Forbes Russia на Android

На сайте работает синтез речи

иконка маруси

Рассылка:

Наименование издания: forbes.ru

Cетевое издание «forbes.ru» зарегистрировано Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций, регистрационный номер и дата принятия решения о регистрации: серия Эл № ФС77-82431 от 23 декабря 2021 г.

Адрес редакции, издателя: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Адрес редакции: 123022, г. Москва, ул. Звенигородская 2-я, д. 13, стр. 15, эт. 4, пом. X, ком. 1

Главный редактор: Мазурин Николай Дмитриевич

Адрес электронной почты редакции: press-release@forbes.ru

Номер телефона редакции: +7 (495) 565-32-06

На информационном ресурсе применяются рекомендательные технологии (информационные технологии предоставления информации на основе сбора, систематизации и анализа сведений, относящихся к предпочтениям пользователей сети «Интернет», находящихся на территории Российской Федерации)

Перепечатка материалов и использование их в любой форме, в том числе и в электронных СМИ, возможны только с письменного разрешения редакции. Товарный знак Forbes является исключительной собственностью Forbes Media Asia Pte. Limited. Все права защищены.
AO «АС Рус Медиа» · 2024
16+