OpenAI заявила о повышенном риске применения ее ИИ-модели для создания биооружия
OpenAI, представившая новую ИИ-модель o1, заявила о повышенном риске ее применения для разработки биооружия, следует из системной карты o1. Стартап определил этот риск как «средний», что является наивысшим уровнем, который он когда-либо присваивал предыдущим ИИ-моделям. В то же время OpenAI отметила, что речь идет о риске такого несанкционированного использования лишь со стороны экспертов в области, поскольку для таких сложных задач нужны навыки работы в лаборатории, которые ИИ пока заменить не может
Американская IT-компания OpenAI представила новую модель искусственного интеллекта (ИИ) o1, принцип работы которой она назвала более приближенным к человеческому мышлению. В системной карте, которая объясняет работу o1, компания предупредила о «среднем риске» ее несанкционированного использования для разработки биологического оружия.
Financial Times обращает внимание, что «средний» уровень такой угрозы является наивысшим, который OpenAI когда-либо присваивала своим моделям. Так, в системной карте GPT-4o, представленной в начале августа, такой риск назван «низким». Раздел карты, куда входит оценка биологической угрозы, включает также риски, связанные с использованием моделей компании для разработки химического, радиологического и ядерного оружия. При этом OpenAI уточнила, что при оценке рисков для o1 сосредоточилась именно на угрозе в части биологического оружия, поскольку эта область обладает «самым низким порогом для входа» в сравнении с остальными тремя. В то же время стартап подчеркивает, что речь идет о риске такого несанкционированного использования лишь со стороны экспертов в области, поскольку для таких сложных задач нужны навыки работы в лаборатории, которые ИИ-модель пока заменить не может.
OpenAI, представляя o1, заявила, что эта ИИ-модель способна решать сложные многоэтапные задачи в разных областях, поскольку формирует ответ не мгновенно, а после тщательного «обдумывания», как это делает человек. Это позволяет модели совершенствовать свой «мыслительный процесс», применяя различные стратегии и «признавая свои ошибки».
Компания указывает, что o1, согласно проведенным тестам, справляется с задачами по физике, химии и биологии на уровне аспирантов. Помимо этого, она способна решать задачи в области математики и программирования. На квалификационном экзамене Международной математической олимпиады (IMO) GPT-4o решила правильно лишь 13% задач, тогда как o1 — 83%, говорится в сообщении. В то же время o1 в отличие от GPT-4o пока не имеет функций просмотра сайтов и загрузки картинок и файлов.
Научный сотрудник OpenAI Ноам Браун отметил в X, что o1 обучена «думать» перед ответом, через закрытую цепочку мыслей. «Чем дольше она думает, тем лучше она решает требующие рассуждения задачи», — объяснил он. Браун отметил, что это дает разработчикам новое измерение для масштабирования.
OpenAI уточнила, что новая модель в превью-версии и упрощенной версии o1-mini уже доступна пользователям ChatGPT с подписками Plus и Team. На следующей неделе доступ к обоим версиям получат также пользователи с подписками Enterprise и Edu. Компания также пообещала открыть доступ к o1-preview и o1-mini и для бесплатных пользователей, но не уточнила сроков.
Bloomberg накануне, 12 сентября, писал со ссылкой на источники, что OpenAI ведет переговоры о новом раунде инвестиций на $6,5 млрд при оценке более чем в $150 млрд, которая значительно превышает оценку в $86 млрд, полученную стартапом в ходе раунда финансирования в конце 2023 года. Если компания добьется такой оценки, она станет одним из самых ценных стартапов в мире, отмечало агентство. Первое место по оценке сейчас занимает китайская ByteDance, материнская компания TikTok ($268 млрд), второе — SpaceX, которая в декабре 2023 года оценивалась в $180 млрд (в июне Bloomberg писал о планах компании Илона Маска увеличить свою оценку почти до $210 млрд). Среди потенциальных инвесторов в OpenAI агентство называло Thrive Capital, Microsoft, Apple и Nvidia.