«Яндекс» дал возможность клиентам выявлять запрещенный контент с помощью нейросетей
Облачная платформа «Яндекса» разрешила клиентам использовать нейросети для классификации текстов, в том числе для обнаружения в них «противоправной информации». В компании отметили, что технология генеративного ответа также позволит бизнесу автоматизировать текстовую коммуникацию с пользователями — например, в чат-ботах
Yandex Cloud (облачная платформа «Яндекса») разрешила клиентам использовать нейросети для классификации текстов, в том числе для обнаружения в них «противоправной информации», рассказали «Коммерсанту» в компании.
В «Яндексе» объяснили, как работает механизм классификации контента: клиент определяет категории, затем загружает примеры текстов по каждой из них, на основе этого нейросети создают модель-классификатор. Эта модель также может использоваться для фильтрации спама и противодействия мошенничеству, отметили в «Яндексе».
Кроме того, технология генеративного ответа, доступ к которой получили клиенты, позволяет автоматизировать текстовую коммуникацию с пользователями (например,в чат-ботах), рассказала компания. «Автоматизация текстовых коммуникаций — один из самых частых сценариев, в котором бизнес пробует работать с нейросетями», — отметил директор по продукту YandexGPT API Алексей Долотов. Технология генеративного ответа реализована на базе нейросети YandexGPT 3. При ответе на запрос она изучает все возможные источники компании, подбирает релевантную информацию и собирает ее в единый ответ, добавила компания.
В 2023 году «Яндекс» и «Сбер» запустили свои большие языковые модели (LLM, Large Language Model). «Сбер» объявил о запуске своего аналога ChatGPT — GigaChat, «Яндекс» — YandexGPT. В том же году «Сбер» внедрил GigaChat в помощника «Салют» в своих умных колонках, а «Яндекс» — YandexGPT в своего виртуального помощника «Алису». В апреле 2024-го «Яндекс» также запустил поиск с помощью искусственного интеллекта «Нейро», который «объединил возможности поиска и больших генеративных моделей».
Технологии обеих компаний столкнулись с критикой властей и общественников. Так, в ноябре 2023-го глава «Сбера» Герман Греф рассказал, что сотрудников «Сбера» и «Яндекса» вызывали в прокуратуру из-за работы их нейросетей. По словам Грефа, разработчиков банка пригласили в ведомство из-за сгенерированных изображений флага России. «У нас модель при генерации российского флага — ну она же генеративная, она пытается его улучшить, — она на флаге нарисовала еще купола от собора Василия Блаженного. Депутаты посчитали, что это издевательство над нашим национальным флагом», — пояснил Греф.
В конце мая 2024-го глава Совета по правам человека при президенте Валерий Фадеев раскритиковал помощника «Алису» за отказ отвечать на политические вопросы, например о принадлежности Донбасса. Фадеев назвал это «не вопросом цензуры», а идеологическим вопросом, в том числе об «отношении нации к своей истории». По этой же причине он возмутился ответами помощника VK — «Маруси». Директор по развитию технологий искусственного интеллекта «Яндекса» Александр Крайнов в ответ заявил, что ответы помощника не носят идеологического характера. Он напомнил, что ответы ИИ не подвергаются редактуре, нейросети стараются подражать текстам, которые видели, и отвечать так, как это сделали бы люди. Однако за ошибку при ответе на ряд вопросов компании может грозить уголовная ответственность, указал Крайнов. «Уход от ответа — лучшее, что мы можем сделать сейчас (...) Потому что, если бы мы отвечали плохо, нас бы вообще запретили, скорее всего», — подытожил он.