gdgt

Skip to Content

Anthropic, как сообщается, возобновила переговоры с Министерством обороны

Как сообщается, Anthropic пытается заключить новую сделку с Министерством обороны США, которая может предотвратить присвоение компании статуса «риска в цепочке поставок». По данным Financial Times и Bloomberg, генеральный директор Anthropic Дарио Амодеи возобновил переговоры с ведомством по поводу использования своих ИИ-моделей. В частности, издания сообщают, что Амодеи ведет переговоры с Эмилем Майклом, заместителем министра обороны по исследованиям и инженерии.

Они пытались уладить контракт на использование моделей Anthropic до того, как переговоры зашли в тупик, и правительство охладело к компании. Газета Times сообщает, что они не смогли договориться о формулировках, которые компания хотела бы видеть, чтобы гарантировать, что ее технология не будет использоваться для массовой слежки.

В служебной записке, отправленной сотрудникам Anthropic, Амодеи, как сообщается, заявил, что ведомство предложило принять условия компании, если она удалит определенную фразу о «анализе собранных больших объемов данных». Он добавил, что это «была единственная строка в контракте, которая точно соответствовала» сценарию, которого она «больше всего опасалась». Anthropic, которая впервые подписала контракт на 200 миллионов долларов с ведомством в 2025 году, отказалась выполнить требования Пентагона. Затем агентство пригрозило расторгнуть существующий контракт и классифицировать компанию как «риск в цепочке поставок», что обычно применяется к китайским компаниям. Президент Трамп приказал федеральным агентствам прекратить использование технологий Anthropic. Однако существует «шестимесячный период вывода», который, как сообщается, позволил правительству использовать ИИ-инструменты Anthropic для нанесения авиаудара по Ирану.

Амодеи также заявил в служебной записке, что сообщения, которые пытается передать OpenAI, — это «чистая ложь», сообщает Times. Он также намекнул, что одна из причин, по которой его компания сейчас находится в немилости у правительства, заключается в том, что он не «возносил диктаторской похвалы Трампу», как это делал Сэм Альтман из OpenAI.

Как вы помните, OpenAI объявила о достижении соглашения вскоре после того, как стало известно о проблемах Anthropic с ведомством. Ее генеральный директор Сэм Альтман написал в Твиттере, что он сообщил правительству, что Anthropic не следует классифицировать как риск в цепочке поставок. Он сказал во время AMA на сайте социальной сети, что не знает деталей контракта Anthropic, но если бы он был таким же, как тот, который подписала OpenAI, он думал бы, что Anthropic должна была его принять. Чат-бот Anthropic Claude поднялся на вершину рейтинга бесплатных приложений Apple в топе после того, как OpenAI объявила о своем контракте с Министерством обороны, опередив ChatGPT.

Позже Альтман написал в X, что OpenAI внесет поправки в свою сделку, включив формулировку, прямо запрещающую использование ее ИИ-системы для массовой слежки против американцев. Однако, когда речь идет об использовании военных технологий, CNBC сообщает, что Альтман сказал сотрудникам, что компания «не может принимать операционные решения». На общем собрании Альтман, как сообщается, сказал: «Так что, возможно, вы считаете, что удар по Ирану был хорош, а вторжение в Венесуэлу — плохо. Вы не можете в этом участвовать».