Anthropic призывает к действиям против «атак дистилляции» в сфере ИИ, обвинив три компании в неправомерном использовании своего чат-бота Claude. На своем веб-сайте Anthropic заявила, что DeepSeek, Moonshot и MiniMax проводили «кампании в промышленных масштабах… для незаконного извлечения возможностей Claude с целью улучшения своих собственных моделей».
Дистилляция в мире ИИ относится к тому, когда менее способные модели полагаются на ответы более мощных для своего обучения. Хотя дистилляция не является чем-то плохим в целом, Anthropic заявила, что подобные атаки могут использоваться в более зловещем ключе. По данным Anthropic, эти три китайские фирмы ИИ несут ответственность за более чем «16 миллионов обменов с Claude через примерно 24 000 мошеннических учетных записей». С точки зрения Anthropic, эти конкурирующие компании использовали Claude в качестве «короткого пути» для разработки более продвинутых моделей ИИ, что также могло привести к обходу определенных мер безопасности.
Anthropic заявила в своем сообщении, что ей удалось с «высокой степенью уверенности» связать каждую из этих кампаний атак дистилляции с конкретными компаниями благодаря корреляции IP-адресов, запросам метаданных и индикаторам инфраструктуры, а также путем подтверждения с другими участниками индустрии ИИ, которые заметили схожее поведение.
В начале прошлого года OpenAI выдвинула аналогичные обвинения в адрес конкурирующих фирм, занимающихся дистилляцией ее моделей, и в ответ заблокировала подозрительные учетные записи. Что касается Anthropic, компания-разработчик Claude заявила, что обновит свою систему, чтобы затруднить атаки дистилляции и облегчить их идентификацию. В то время как Anthropic указывает пальцем на эти другие фирмы, она также сталкивается с судебным иском от музыкальных издателей, которые обвинили компанию ИИ в использовании незаконных копий песен для обучения своего чат-бота Claude.
