Число судебных решений в спорах вокруг применения ИИ выросло за год на 60%
Число судебных решений в спорах вокруг применения выросло за год на 60%. В основном споры идут вокруг использования технологий для взыскания долгов, грантов и договоров на разработку IT-продуктов. Юристы считают, что складывающаяся судебная практика готовит фундамент для изменения регуляторной среды
С марта 2023 по март 2024 года российские суды вынесли 406 решений в спорах вокруг применения искусственного интеллекта, что на 60% больше, чем годом ранее, сообщил «Коммерсантъ» со ссылкой на исследование RTM Group. «Внимание к теме ИИ растет, и в течение года мы ожидаем роста судебных споров не менее чем на 80%», — отметил управляющий группы Евгений Царев.
Авторы исследования назвали основные категории судебных споров: звонки или рассылки с использованием ИИ для взыскания долгов, гранты на разработку IT-продуктов с использованием ИИ и лицензионные договоры или договоры на разработку ПО, которое использует ИИ.
«Основные правонарушения встречаются в деятельности банков по взысканию задолженности и коллекторов», — отметил Царев. На них в рассматриваемый период пришлось около 50% дел, штраф по ним обычно не превышает 100 000 рублей. Доля гражданско-правовых споров составила около 40%. По грантам средняя сумма спора достигла 12 млн рулей, по договорам — 240 000 рублей.
«До момента появления полноценного правового регулирования любой отрасли правила устанавливаются в том числе на уровне судебной практики», — рассказал изданию руководитель дирекции юрфирмы Vegas Lex Кирилл Никитин. Речь идет о «подготовке фундамента для изменения регуляторной среды», согласен управляющий партнер Semenov & Pevzner Роман Лукьянов.
Он выразил уверенность, что складывающаяся судебная практика вряд ли негативно отразится на разработчиках ИИ. Партнер юркомпании «О2 Консалтинг» Дарья Носова напомнила, что договоры уже включают положения об ответственности разработчика и непосредственного пользователя, который осуществляет обучение и последующую донастройку системы ИИ. Таким образом разработчик снимает с себя ответственность и перекладывает риски, сопряженные с использованием ИИ, на пользователя, который обучает систему самостоятельно, отметила она.