Пентагон поставил Anthropic ультиматум: до 27 февраля снять ограничения на военное использование модели Claude или лишиться контракта на $200 млн. Это первый публичный конфликт между американским военным ведомством и ИИ-компанией из-за использования её модель. ИИ уже управляет траекториями дронов, обрабатывает спутниковые снимки и помогает планировать боевые операции — военные расходы на него выросли с $4,6 млрд в 2022 году до $9,2 млрд в 2023-м. Теперь Пентагон хочет убрать последнее препятствие: корпоративные ограничения на то, что ИИ может делать на войне.
В ноябре 2024 года Anthropic, Palantir и Amazon Web Services объявили о партнёрстве: модель Claude стала доступна американским военным и спецслужбам через инфраструктуру Palantir с аккредитацией для работы с секретными данными. Anthropic оказалась первой ИИ-компанией, чья модель была развёрнута на таком уровне доступа.
Летом 2025 года Пентагон заключил контракты с четырьмя компаниями — Anthropic, Google, OpenAI и xAI — каждый стоимостью до $200 млн. Параллельно военные развернули на несекретных сетях платформу genai.mil, доступную более чем трём миллионам сотрудников ведомства. ИИ стал частью военной инфраструктуры США быстро и без широкого публичного обсуждения.
Конфликт между компанией и Пентагоном обострился после того, как стало известно, что Claude применялся в ходе захвата президента Венесуэлы Николаса Мадуро. По данным WSJ, модель использовалась через инфраструктуру Palantir — для анализа разведывательных данных и планирования операции. Reuters не смог независимо верифицировать эту информацию. Anthropic провела внутреннюю проверку и не нашла нарушений собственных политик.
По данным AP News, Военные добиваются права использовать Claude «для всех законных военных целей» без корпоративных ограничений. Позиция Пентагона: ответственность за законность применения лежит на военных, а не на разработчике модели.
Anthropic с этим не согласна. Компания держит две красные линии:
запрет на полностью автономное применение силы,
запрет на слежку внутри страны.
Я считаю что ИИ, вероятно, является самой мощной технологией, когда-либо разработанной людьми. У неё обязательно будет военное применение... Государство, которое оптимизирует использование искусственного интеллекта в военных целях, получит решающее преимущество в ведении войны, и я хочу, чтобы таким государством стали Соединённые Штаты. — высказался Генерал Марк Милли (бывший глава Объединённого комитета начальников штабов США).
По данным Reuters, Амодеи отрицал, что Anthropic поднимала вопросы о применении Claude в венесуэльской операции — ни перед Palantir, ни перед Пентагоном. Компания заявила, что ведёт переговоры добросовестно, но от своих ограничений отступать не собирается.
Положение Anthropic осложняется тем, что конкуренты сделали другой выбор. Google, OpenAI и xAI согласились на более широкий доступ — без жёстких условий. Пентагон на этой неделе объявил о соглашении с xAI на развёртывание в секретных сетях. Anthropic рискует остаться единственной компанией, которая отказала военным. И потерять рынок, который сама же помогла открыть.
Пентагон располагает несколькими рычагами давления на компанию:
Расторжение контракта на $200 млн.
Присвоение Anthropic статуса «риск для цепочки поставок» (supply-chain risk). Обычно этот статус применяется к компаниям из враждебных государств — именно так заблокировали Huawei. Применение этой меры к американской компании юристы по госконтрактам называют беспрецедентным и прогнозируют длительные судебные разбирательства.
Defense Production Act: закон о военном производстве, дающий государству право принудительно регулировать стратегически важные отрасли.
По сообщениям Reuters, 25 февраля Пентагон запросил у Lockheed Martin и Boeing оценку их зависимости от сервисов Anthropic. Boeing сообщил, что активных контрактов с компанией у него нет. Одновременно Пентагон объявил о соглашении с xAI на развёртывание в секретных сетях.
Конфликт Anthropic с Пентагоном — частный случай более широкого процесса. США встраивают языковые модели в военную инфраструктуру на всех уровнях секретности: от планирования операций до управления роями дронов. Военные расходы на ИИ выросли с $4,6 млрд в 2022 году до $9,2 млрд в 2023-м. К 2028 году ожидается $38,8 млрд.
Исход этого противостояния создаст прецедент для всей отрасли. Параллельно исследователи King's College London опубликовали результаты военных симуляций с участием трёх ведущих моделей — GPT, Claude и Gemini. В 95% сценариев модели применяли ядерное оружие. Ни одна не выбрала капитуляцию. Авторы исследования предупреждают, что в реальных кризисах со сжатыми сроками принятия решений давление на использование ИИ-рекомендаций будет только расти.
Подписывайтесь на наш канал в Телеграм: все главные новости о финансах, ничего лишнего!