Anthropic и Пентагон: хронология конфликта, который расколол AI-индустрию

Подробная хронология противостояния Anthropic и Министерства обороны США — от первого контракта с Palantir до судебных исков и чёрных списков. Как решение одной компании изменило ландшафт всей индустрии.

Aravana··4 мин

Когда в конце 2024 года Anthropic тихо изменила свою политику допустимого использования, мало кто обратил на это внимание. Формулировка сместилась: из абсолютного запрета на военное применение появилось окно для «оборонных задач, не связанных с летальным применением». Это казалось прагматичным компромиссом. Компания росла, конкуренты уже работали с Пентагоном, а полный отказ от государственных контрактов выглядел всё менее реалистичным. Никто тогда не предполагал, что именно это решение запустит цепочку событий, которая через полтора года расколет AI-индустрию пополам.

Мы восстановили полную хронологию конфликта, опираясь на судебные документы, публикации The New York Times, The Washington Post, Reuters, а также на заявления самих участников. Это история не о политике и не о бизнесе — это история о том, где проходит граница между технологией и оружием.

**Ноябрь 2024: партнёрство с Palantir.** 7 ноября 2024 года Anthropic объявила о партнёрстве с Palantir Technologies для предоставления Claude через платформу Palantir для разведывательного сообщества США. Контракт предусматривал развёртывание Claude в закрытых средах с допуском Impact Level 6. Palantir обеспечивала инфраструктуру и безопасность, Anthropic — модель. На тот момент речь шла об аналитических задачах: обработка документов, анализ разведданных, составление отчётов. Формально — никакого оружия.

Эскалация: контракт и боевое применение

**Июль 2025: контракт на $200 миллионов.** Масштаб сотрудничества вырос. Министерство обороны заключило прямой контракт с Anthropic на $200 миллионов сроком на три года. Claude интегрировался в системы планирования и логистики вооружённых сил. Контракт включал специализированные fine-tuned версии модели для разведывательного анализа и оперативного планирования. Anthropic настаивала на сохранении своих ограничений: никакого управления летальными системами, никакого массового наблюдения. Пентагон формально согласился.

**Февраль 2026: операция по захвату Мадуро.** 13 февраля 2026 года стало известно, что Claude использовался во время активной военной операции в Венесуэле. Через платформу Palantir модель обрабатывала разведданные в реальном времени, помогая координировать действия спецназа. Независимые журналисты The Intercept опубликовали внутренние документы Пентагона, из которых следовало, что Claude применялся для анализа перемещений охраны Мадуро и оптимизации маршрутов проникновения. Для Anthropic это стало шоком — по крайней мере, так утверждает компания. Dario Amodei заявил, что Anthropic не была уведомлена о конкретном характере операции.

Ультиматум и отказ Anthropic

**24 февраля 2026: ультиматум Хегсета.** Министр обороны Пит Хегсет направил Anthropic официальное письмо с ультиматумом. Требование: снять все ограничения на использование Claude в оборонных целях и согласиться на «любое законное использование» модели военными. Срок — 17:01 EST 27 февраля. В случае отказа Хегсет пригрозил «серьёзными последствиями для бизнеса компании». Письмо было составлено в нехарактерно резком тоне — позже юристы Anthropic назовут его «беспрецедентным давлением на частную компанию».

**26 февраля 2026: отказ Anthropic.** За день до дедлайна Dario Amodei опубликовал открытое письмо. Ключевая фраза: «Мы не можем с чистой совестью согласиться на эти требования» (we cannot in good conscience accede to these demands). Anthropic подтвердила свои две красные линии: никакого массового наблюдения и никакого автономного применения оружия без человеческого контроля. Amodei прямо назвал аналогичную сделку OpenAI «театром безопасности» (safety theater), заявив, что формальное согласие без реальных гарантий хуже, чем честный отказ.

**27 февраля 2026: чёрный список.** Ровно в 17:01 EST, как и было обещано, Министерство обороны внесло Anthropic в федеральный чёрный список поставщиков (debarment list). Это означало не только потерю контракта на $200 миллионов, но и запрет на любые контракты с федеральным правительством. Одновременно Белый дом отозвал приглашение Amodei на Совет по AI при президенте. В тот же день OpenAI объявила о «расширенном партнёрстве» с Пентагоном — совпадение, которое многие сочли слишком удобным.

Судебные иски и последствия

**9 марта 2026: судебные иски.** Anthropic подала иск в Федеральный окружной суд округа Колумбия против Министерства обороны и лично Пита Хегсета. Основания: нарушение Первой поправки (принуждение к отказу от собственной позиции), нарушение Due Process Clause Пятой поправки, а также превышение полномочий исполнительной ветвью. Параллельно ACLU подала отдельный иск от имени группы сотрудников Anthropic, чьи персональные данные были якобы переданы ФБР после внесения компании в чёрный список. Слушания назначены на 25 марта 2026 года.

Масштаб последствий сложно переоценить. За три недели после ультиматума акции Anthropic (компания провела IPO в сентябре 2025) упали на 23%, но затем восстановились на 14% после волны поддержки со стороны технологического сообщества. 150 отставных федеральных судей подписали amicus brief в поддержку Anthropic. Microsoft, несмотря на партнёрство с OpenAI, подала собственный amicus brief, предупредив о «катастрофических последствиях для свободы предпринимательства».

Фундаментальное противоречие индустрии

Этот конфликт обнажил фундаментальное противоречие, которое AI-индустрия пыталась игнорировать. Технология двойного назначения по определению не может быть полностью «мирной» или полностью «военной». Каждая AI-компания рано или поздно встанет перед тем же выбором, что и Anthropic. И от того, какой выбор сделает индустрия в совокупности, зависит не только будущее AI, но и характер военных конфликтов на десятилетия вперёд.

Хронология продолжает пополняться. На момент публикации (20 марта 2026 года) обе стороны готовятся к слушаниям 25 марта. Пентагон подал встречный иск, требуя возврата всех классифицированных материалов и штраф в $50 миллионов за «нарушение условий допуска». Anthropic в ответ опубликовала 47-страничный документ, в котором подробно описала каждый случай, когда Пентагон нарушал согласованные ограничения использования Claude.

Мы будем следить за развитием событий и обновлять эту хронологию по мере поступления новой информации.

Как вы думаете — способна ли вообще частная компания противостоять давлению военного ведомства крупнейшей экономики мира, или отказ Anthropic — лишь вопрос времени до капитуляции?

Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
Как вам материал?

Читайте также

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

IBM: 64% CEO принимают стратегические решения на основе AI

Исследование IBM: 64% CEO глобальных компаний уже принимают стратегические решения на основе AI — не изучают, не тестируют, а принимают.

·1 мин

Китай: четыре открытые AI-модели за 12 дней дешевле Claude в 4 раза

DeepSeek V4 Pro, Kimi K2.6, GLM-5.1, MiniMax M2.7 — паритет с западным фронтиром в кодинге при стоимости в 4 раза ниже Claude Opus 4.7.

·1 мин

OpenAI заблокировал GPT-5.5-Cyber — как Anthropic с Mythos, которую сам критиковал

OpenAI ограничил GPT-5.5-Cyber — повторив подход Anthropic с Mythos, который сам публично критиковал.

·1 мин