Сооснователь Apple предупредил о рисках использования ИИ «плохими игроками»
Сооснователь Apple, один из пионеров в области компьютерных технологий Стив Возняк выразил опасение, что искусственный интеллект может оказаться полезным для злоумышленников, а созданные с его помощью мошеннические схемы будет сложнее распознать. Сгенерированный ИИ контент должен был четко маркирован, подчеркнул Возняк
Сооснователь Apple Стив Возняк выразил опасение, что искусственный интеллект (ИИ) может оказаться полезным для злоумышленников, а созданные с его помощью мошеннические схемы будет сложнее распознать. Об этом Возняк заявил в интервью BBC.
По мнению Возняка, который работал над созданием первого компьютера Apple и считается одним из пионеров в области компьютерных технологий, искусственный интеллект могут использовать «плохие игроки, которые хотят обмануть вас касательно того, кто они на самом деле». Тексты, написанные с помощью таких программ, как ChatGPT, «звучат очень умно», добавил Возняк.
Созданный с помощью ИИ контент должен был четко маркирован, убежден Возняк. Он также заявил о необходимости регулирования этой сферы: «В действительности люди должны нести ответственность за то, что сгенеровал ИИ». Возняк добавил, что власти должны следить за крупными технологическими компаниями, которые «считают, что им все сойдет с рук».
В то же время он не верит, что ИИ способен заменить человека, поскольку у программ нет эмоций.
Возняк добавил, что «технологии не остановить», но можно научить людей работать с ними и различать обманные схемы и попытки получить их личную информацию.
В конце марта Возняком наряду с Илоном Маском и группой более чем из 1000 экспертов и руководителей отрасли подписал открытое письмо с призывом приостановить разработку продвинутого ИИ до тех пор, пока не будут созданы, внедрены и проверены независимыми экспертами общие протоколы безопасности. Он и его коллеги призвали все ИИ-лаборатории приостановить как минимум на шесть месяцев обучение систем искусственного интеллекта более мощных, чем новая языковая модель GPT-4 от OpenAI. Если же такую паузу нельзя взять быстро, то «правительства должны вмешаться и ввести мораторий», говорится в письме.
О потенциальном вреде внедрения ИИ без должного жесткого регулирования также предупредил гендиректор Alphabet Сундар Пичаи. Он признал, что необходимость срочно работать и развертывать ИИ, понимая, что он может быть очень вредным при неправильном развертывании, «не дает ему спать по ночам».