Ультиматум Пентагона: Anthropic снимет ограничения Claude для войны или потеряет $200 млн

17:20 26.02.2026

Пентагон поставил Anthropic ультиматум: до 27 февраля снять ограничения на военное использование модели Claude или лишиться контракта на $200 млн. Это первый публичный конфликт между американским военным ведомством и ИИ-компанией из-за использования её модель. ИИ уже управляет траекториями дронов, обрабатывает спутниковые снимки и помогает планировать боевые операции — военные расходы на него выросли с $4,6 млрд в 2022 году до $9,2 млрд в 2023-м. Теперь Пентагон хочет убрать последнее препятствие: корпоративные ограничения на то, что ИИ может делать на войне.

Ультиматум Пентагона: Anthropic снимет ограничения Claude для войны или потеряет $200 млн

Как Claude попал в секретные сети Пентагона

В ноябре 2024 года Anthropic, Palantir и Amazon Web Services объявили о партнёрстве: модель Claude стала доступна американским военным и спецслужбам через инфраструктуру Palantir с аккредитацией для работы с секретными данными. Anthropic оказалась первой ИИ-компанией, чья модель была развёрнута на таком уровне доступа.

Летом 2025 года Пентагон заключил контракты с четырьмя компаниями — Anthropic, Google, OpenAI и xAI — каждый стоимостью до $200 млн. Параллельно военные развернули на несекретных сетях платформу genai.mil, доступную более чем трём миллионам сотрудников ведомства. ИИ стал частью военной инфраструктуры США быстро и без широкого публичного обсуждения.

Венесуэла: как ИИ стал частью реальной военной операции

Конфликт между компанией и Пентагоном обострился после того, как стало известно, что Claude применялся в ходе захвата президента Венесуэлы Николаса Мадуро. По данным WSJ, модель использовалась через инфраструктуру Palantir — для анализа разведывательных данных и планирования операции. Reuters не смог независимо верифицировать эту информацию. Anthropic провела внутреннюю проверку и не нашла нарушений собственных политик.

Чего хочет Пентагон — и где граница Anthropic

По данным AP News, Военные добиваются права использовать Claude «для всех законных военных целей» без корпоративных ограничений. Позиция Пентагона: ответственность за законность применения лежит на военных, а не на разработчике модели.

Anthropic с этим не согласна. Компания держит две красные линии: 

  • запрет на полностью автономное применение силы,

  • запрет на слежку внутри страны. 

Я считаю что ИИ, вероятно, является самой мощной технологией, когда-либо разработанной людьми. У неё обязательно будет военное применение... Государство, которое оптимизирует использование искусственного интеллекта в военных целях, получит решающее преимущество в ведении войны, и я хочу, чтобы таким государством стали Соединённые Штаты. — высказался Генерал Марк Милли (бывший глава Объединённого комитета начальников штабов США).

По данным Reuters, Амодеи отрицал, что Anthropic поднимала вопросы о применении Claude в венесуэльской операции — ни перед Palantir, ни перед Пентагоном. Компания заявила, что ведёт переговоры добросовестно, но от своих ограничений отступать не собирается.

Положение Anthropic осложняется тем, что конкуренты сделали другой выбор. Google, OpenAI и xAI согласились на более широкий доступ — без жёстких условий. Пентагон на этой неделе объявил о соглашении с xAI на развёртывание в секретных сетях. Anthropic рискует остаться единственной компанией, которая отказала военным. И потерять рынок, который сама же помогла открыть.

Инструменты давления: от расторжения контракта до чёрного списка

Пентагон располагает несколькими рычагами давления на компанию: 

  1. Расторжение контракта на $200 млн. 

  2. Присвоение Anthropic статуса «риск для цепочки поставок» (supply-chain risk). Обычно этот статус применяется к компаниям из враждебных государств — именно так заблокировали Huawei. Применение этой меры к американской компании юристы по госконтрактам называют беспрецедентным и прогнозируют длительные судебные разбирательства. 

  3. Defense Production Act: закон о военном производстве, дающий государству право принудительно регулировать стратегически важные отрасли.

По сообщениям Reuters, 25 февраля Пентагон запросил у Lockheed Martin и Boeing оценку их зависимости от сервисов Anthropic. Boeing сообщил, что активных контрактов с компанией у него нет. Одновременно Пентагон объявил о соглашении с xAI на развёртывание в секретных сетях.

ИИ как инструмент военной мощи: куда движется рынок

Конфликт Anthropic с Пентагоном — частный случай более широкого процесса. США встраивают языковые модели в военную инфраструктуру на всех уровнях секретности: от планирования операций до управления роями дронов. Военные расходы на ИИ выросли с $4,6 млрд в 2022 году до $9,2 млрд в 2023-м. К 2028 году ожидается $38,8 млрд.

Исход этого противостояния создаст прецедент для всей отрасли. Параллельно исследователи King's College London опубликовали результаты военных симуляций с участием трёх ведущих моделей — GPT, Claude и Gemini. В 95% сценариев модели применяли ядерное оружие. Ни одна не выбрала капитуляцию. Авторы исследования предупреждают, что в реальных кризисах со сжатыми сроками принятия решений давление на использование ИИ-рекомендаций будет только расти. 

Подписывайтесь на наш канал в Телеграм: все главные новости о финансах, ничего лишнего!