gdgt

Skip to Content

Anthropic отказывается подчиняться Пентагону, несмотря на угрозы Хегзета

Несмотря на ультиматум от министра обороны Пита Хегзета, Anthropic заявила, что не может «со спокойной совестью» выполнить предписание Пентагона об отключении систем защиты своего ИИ, написал генеральный директор Дарио Амодеи в блоге. Министерство обороны угрожало аннулировать контракт на 200 миллионов долларов и объявить Anthropic «риском для цепочки поставок», если компания не согласится отключить системы защиты от массовой слежки и автономного оружия.

«Наше твердое предпочтение — продолжать обслуживать Департамент и наших военнослужащих, с двумя запрошенными нами системами защиты», — заявил Амодеи. «Мы готовы продолжать нашу работу по обеспечению национальной безопасности Соединенных Штатов».

В ответ заместитель министра обороны США Эмиль Майкл обвинил Амодеи в посте в X в том, что он «больше всего хочет лично контролировать вооруженные силы США и готов поставить под угрозу безопасность нашей нации».

Противостояние началось, когда Пентагон потребовал, чтобы Anthropic сделала свой продукт Claude AI доступным «для всех законных целей», включая массовую слежку и разработку полностью автономного оружия, способного убивать без контроля человека. Anthropic отказалась предоставлять свои технологии для этих целей, даже с встроенным в модель «защитным стеком».

Вчера Axios сообщил, что Хегзет установил для Anthropic крайний срок — 17:01 пятницы — для согласия с условиями Пентагона. Одновременно Министерство обороны запросило оценку своей зависимости от Claude, что является первым шагом к возможному внесению Anthropic в список «рисков для цепочки поставок» — статуса, который обычно применяется к фирмам из стран-противников, таких как Китай, и «никогда ранее не применялся к американской компании», как написала Anthropic.

Амодеи отказался изменить свою позицию и заявил, что если Пентагон решит отказаться от услуг Anthropic, «мы будем работать над обеспечением плавной передачи другому поставщику, избегая каких-либо сбоев в текущем военном планировании, операциях или других критически важных миссиях». Grok является одним из других поставщиков, которые, по сообщениям, рассматриваются Министерством обороны, наряду с Gemini от Google и OpenAI.

Однако военным может быть не так просто избавиться от Claude. До сих пор модель Anthropic была единственной, разрешенной для наиболее чувствительных задач военных в области разведки, разработки вооружений и боевых действий. Сообщается, что Claude использовался при рейде в Венесуэле, в ходе которого американские военные эвакуировали президента страны Николаса Мадуро и его жену.

Компании, занимающиеся разработкой ИИ, подвергаются широкой критике за потенциальный вред для пользователей, но массовая слежка и разработка оружия явно вывели бы это на новый уровень. Возможный ответ Anthropic Пентагону был расценен как проверка ее заявления о том, что она является самой безопасной ИИ-компанией, особенно после того, как она отказалась от своего флагманского обещания безопасности за несколько дней до этого. Теперь, когда Амодеи ответил, внимание переключится на Пентагон, чтобы увидеть, последует ли он своим угрозам, которые могут серьезно навредить Anthropic.