Anthropic и Пентагон: хронология конфликта, который расколол AI-индустрию
Подробная хронология противостояния Anthropic и Министерства обороны США — от первого контракта с Palantir до судебных исков и чёрных списков. Как решение одной компании изменило ландшафт всей индустрии.
Тип материала: Анализ
Когда в конце 2024 года Anthropic тихо изменила свою политику допустимого использования, мало кто обратил на это внимание. Формулировка сместилась: из абсолютного запрета на военное применение появилось окно для «оборонных задач, не связанных с летальным применением». Это казалось прагматичным компромиссом. Компания росла, конкуренты уже работали с Пентагоном, а полный отказ от государственных контрактов выглядел всё менее реалистичным. Никто тогда не предполагал, что именно это решение запустит цепочку событий, которая через полтора года расколет AI-индустрию пополам.
Мы восстановили полную хронологию конфликта, опираясь на судебные документы, публикации The New York Times, The Washington Post, Reuters, а также на заявления самих участников. Это история не о политике и не о бизнесе — это история о том, где проходит граница между технологией и оружием.
**Ноябрь 2024: партнёрство с Palantir.** 7 ноября 2024 года Anthropic объявила о партнёрстве с Palantir Technologies для предоставления Claude через платформу Palantir для разведывательного сообщества США. Контракт предусматривал развёртывание Claude в закрытых средах с допуском Impact Level 6. Palantir обеспечивала инфраструктуру и безопасность, Anthropic — модель. На тот момент речь шла об аналитических задачах: обработка документов, анализ разведданных, составление отчётов. Формально — никакого оружия.
**Июль 2025: контракт на $200 миллионов.** Масштаб сотрудничества вырос. Министерство обороны заключило прямой контракт с Anthropic на $200 миллионов сроком на три года. Claude интегрировался в системы планирования и логистики вооружённых сил. Контракт включал специализированные fine-tuned версии модели для разведывательного анализа и оперативного планирования. Anthropic настаивала на сохранении своих ограничений: никакого управления летальными системами, никакого массового наблюдения. Пентагон формально согласился.
**Февраль 2026: операция по захвату Мадуро.** 13 февраля 2026 года стало известно, что Claude использовался во время активной военной операции в Венесуэле. Через платформу Palantir модель обрабатывала разведданные в реальном времени, помогая координировать действия спецназа. Независимые журналисты The Intercept опубликовали внутренние документы Пентагона, из которых следовало, что Claude применялся для анализа перемещений охраны Мадуро и оптимизации маршрутов проникновения. Для Anthropic это стало шоком — по крайней мере, так утверждает компания. Dario Amodei заявил, что Anthropic не была уведомлена о конкретном характере операции.
**24 февраля 2026: ультиматум Хегсета.** Министр обороны Пит Хегсет направил Anthropic официальное письмо с ультиматумом. Требование: снять все ограничения на использование Claude в оборонных целях и согласиться на «любое законное использование» модели военными. Срок — 17:01 EST 27 февраля. В случае отказа Хегсет пригрозил «серьёзными последствиями для бизнеса компании». Письмо было составлено в нехарактерно резком тоне — позже юристы Anthropic назовут его «беспрецедентным давлением на частную компанию».
**26 февраля 2026: отказ Anthropic.** За день до дедлайна Dario Amodei опубликовал открытое письмо. Ключевая фраза: «Мы не можем с чистой совестью согласиться на эти требования» (we cannot in good conscience accede to these demands). Anthropic подтвердила свои две красные линии: никакого массового наблюдения и никакого автономного применения оружия без человеческого контроля. Amodei прямо назвал аналогичную сделку OpenAI «театром безопасности» (safety theater), заявив, что формальное согласие без реальных гарантий хуже, чем честный отказ.
**27 февраля 2026: чёрный список.** Ровно в 17:01 EST, как и было обещано, Министерство обороны внесло Anthropic в федеральный чёрный список поставщиков (debarment list). Это означало не только потерю контракта на $200 миллионов, но и запрет на любые контракты с федеральным правительством. Одновременно Белый дом отозвал приглашение Amodei на Совет по AI при президенте. В тот же день OpenAI объявила о «расширенном партнёрстве» с Пентагоном — совпадение, которое многие сочли слишком удобным.
**9 марта 2026: судебные иски.** Anthropic подала иск в Федеральный окружной суд округа Колумбия против Министерства обороны и лично Пита Хегсета. Основания: нарушение Первой поправки (принуждение к отказу от собственной позиции), нарушение Due Process Clause Пятой поправки, а также превышение полномочий исполнительной ветвью. Параллельно ACLU подала отдельный иск от имени группы сотрудников Anthropic, чьи персональные данные были якобы переданы ФБР после внесения компании в чёрный список. Слушания назначены на 25 марта 2026 года.
Масштаб последствий сложно переоценить. За три недели после ультиматума акции Anthropic (компания провела IPO в сентябре 2025) упали на 23%, но затем восстановились на 14% после волны поддержки со стороны технологического сообщества. 150 отставных федеральных судей подписали amicus brief в поддержку Anthropic. Microsoft, несмотря на партнёрство с OpenAI, подала собственный amicus brief, предупредив о «катастрофических последствиях для свободы предпринимательства».
Этот конфликт обнажил фундаментальное противоречие, которое AI-индустрия пыталась игнорировать. Технология двойного назначения по определению не может быть полностью «мирной» или полностью «военной». Каждая AI-компания рано или поздно встанет перед тем же выбором, что и Anthropic. И от того, какой выбор сделает индустрия в совокупности, зависит не только будущее AI, но и характер военных конфликтов на десятилетия вперёд.
Хронология продолжает пополняться. На момент публикации (20 марта 2026 года) обе стороны готовятся к слушаниям 25 марта. Пентагон подал встречный иск, требуя возврата всех классифицированных материалов и штраф в $50 миллионов за «нарушение условий допуска». Anthropic в ответ опубликовала 47-страничный документ, в котором подробно описала каждый случай, когда Пентагон нарушал согласованные ограничения использования Claude.
Мы будем следить за развитием событий и обновлять эту хронологию по мере поступления новой информации.
Как вы думаете — способна ли вообще частная компания противостоять давлению военного ведомства крупнейшей экономики мира, или отказ Anthropic — лишь вопрос времени до капитуляции?
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про Intelligence110 миллиардов за мечту: что стоит за рекордным раундом OpenAI
OpenAI привлекла крупнейший раунд в истории венчурного рынка — $110 млрд при оценке $730 млрд. Разбираемся, кто дал деньги, зачем столько и что это значит для индустрии.
GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro: кто лучший в 2026 году
Три флагмана, десятки бенчмарков, ноль однозначных ответов. Разбираемся, какая модель реально лидирует — и почему ответ зависит от задачи.
AI для программистов: Claude Code vs Cursor vs Copilot vs Devin
Четыре подхода к AI-ассистированному кодингу: от автокомплита до полностью автономного агента. Разбираемся, кто для чего.