Все Insights

Ультиматум Пентагона: «любое законное использование» или блокировка

24 февраля 2026 года министр обороны США Пит Хегсет предъявил Anthropic ультиматум: снять все ограничения или потерять все федеральные контракты. Разбираем формулировки, юридические основания и два условия, от которых Anthropic отказалась отступить.

Aravana··5 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn

Документ занимал четыре страницы. Он был направлен на имя Dario Amodei 24 февраля 2026 года и подписан лично министром обороны Питом Хегсетом. Формально это было «уведомление о необходимости пересмотра условий контракта». Фактически — ультиматум, равных которому в истории отношений между правительством США и технологическим сектором ещё не было.

Мы получили доступ к полному тексту письма благодаря судебным документам, поданным Anthropic 9 марта. Разберём его по пунктам.

**Ключевое требование.** Центральная фраза письма: «Anthropic обязуется обеспечить доступ к моделям Claude для любого законного использования Министерством обороны и его подрядчиками, без дополнительных ограничений, выходящих за рамки применимого федерального законодательства» (any lawful use by the Department of Defense and its contractors, without additional restrictions beyond applicable federal law). Формулировка «любое законное использование» (any lawful use) — ключевая. Она означает, что единственным ограничителем должен быть закон, а не этические принципы компании.

На первый взгляд это звучит разумно: зачем частной компании устанавливать ограничения сверх закона? Но проблема в том, что закон в области военного AI находится в серой зоне. Нет федерального закона, прямо запрещающего использование AI для автономного наведения оружия. Нет закона, запрещающего массовое наблюдение с помощью AI в зонах боевых действий. «Любое законное использование» в условиях правового вакуума означает фактически «любое использование».

**Дедлайн: 17:01 EST 27 февраля.** Хегсет дал Anthropic ровно трое суток на принятие решения. Срок был установлен с точностью до минуты — 5:01 PM по восточному времени в четверг, 27 февраля. Источники внутри Пентагона, цитируемые The Washington Post, пояснили, что время было выбрано намеренно: конец рабочего дня, после которого решение о внесении в чёрный список могло быть принято «в рамках стандартных административных процедур» без необходимости дополнительных согласований.

Трое суток — исключительно короткий срок для решения, затрагивающего контракт на $200 миллионов, тысячи сотрудников и стратегическое позиционирование компании. Юристы Anthropic в судебном иске назвали это «намеренно неразумным сроком, призванным лишить компанию возможности принять взвешенное решение».

**Две красные линии Anthropic.** В ответном письме от 26 февраля — за день до дедлайна — Anthropic сформулировала свою позицию с предельной ясностью. Компания была готова продолжить сотрудничество с Пентагоном, но при соблюдении двух условий:

Первое: никакого массового наблюдения (no mass surveillance). Anthropic определила этот термин как «систематический сбор и анализ данных о гражданском населении без индивидуальных судебных ордеров». Компания заявила, что не будет предоставлять Claude для программ, аналогичных NSA PRISM или любых систем массового мониторинга, даже на территории иностранных государств.

Второе: никакого автономного оружия без человеческого контроля (no autonomous weapons without human oversight). Anthropic настаивала на принципе «human in the loop» — человек должен принимать финальное решение о применении летальной силы. Claude может анализировать данные, но не может быть элементом цепочки, в которой решение о стрельбе или бомбардировке принимается без участия человека.

**Юридическая база ультиматума.** Хегсет сослался на Defense Production Act и на исполнительный указ президента от января 2026 года о «приоритетном доступе вооружённых сил к критическим технологиям». Юристы разошлись во мнениях относительно применимости этих оснований. Профессор Лоуренс Трайб из Гарварда написал в X (бывший Twitter): «DPA предназначен для обеспечения поставок материалов, а не для принуждения к отказу от этических принципов. Это беспрецедентное расширение исполнительной власти».

С другой стороны, бывший генеральный советник Пентагона Джеймс Кросс заявил Fox News: «В условиях угрозы национальной безопасности правительство имеет право требовать от подрядчиков полного сотрудничества. Anthropic приняла деньги — теперь должна принять и ответственность».

**Контекст: почему именно сейчас?** Ультиматум не возник в вакууме. После публикации The Intercept о роли Claude в операции против Мадуро (13 февраля) в Конгрессе начались слушания. Демократы требовали расследования, республиканцы — расширения военного AI. Администрация оказалась под давлением с обеих сторон. Ультиматум Anthropic можно рассматривать как попытку перехватить инициативу: вместо того чтобы отвечать на неудобные вопросы о контроле над AI, Пентагон перевёл разговор в плоскость «лояльности подрядчиков».

**Реакция рынка.** Утечка информации об ультиматуме (она произошла 25 февраля через источники Reuters) вызвала немедленную реакцию. Акции Anthropic упали на 8% за торговую сессию. Одновременно акции Palantir выросли на 4%, а акции OpenAI — на 6%. Рынок сделал свои выводы: потеря одного конкурента — выигрыш для остальных.

**Формулировки, которые имеют значение.** В ультиматуме есть ещё одна важная деталь, которую мы хотим выделить. Хегсет написал: «Отказ от сотрудничества будет рассматриваться как действие, наносящее ущерб национальной безопасности» (refusal to cooperate will be treated as an action detrimental to national security). Эта формулировка — не просто риторика. В американском праве «ущерб национальной безопасности» может служить основанием для уголовного преследования, отзыва допусков и блокировки активов. Юристы Anthropic трактовали эту фразу как прямую угрозу.

Мы проанализировали историю подобных конфликтов между правительством и технологическими компаниями. Дело Apple vs FBI (2016) — ближайший аналог: тогда ФБР требовало от Apple создать бэкдор в iPhone. Apple отказалась, ФБР нашло альтернативное решение, дело не дошло до суда. Но между тем случаем и нынешним есть принципиальная разница: Apple отказывалась создать новый инструмент, а Anthropic отказывается снять ограничения с уже существующего. Юридически это разные ситуации, и прецедент Apple может оказаться неприменим.

Ультиматум истёк. Anthropic не согласилась. Последствия наступили немедленно: чёрный список, потеря контрактов, отзыв приглашения в Совет по AI. Но юридическая битва только начинается. 25 марта — первое слушание. И от его исхода зависит не только судьба Anthropic, но и ответ на вопрос, который ультиматум поставил ребром.

Имеет ли государство право требовать от технологической компании отказа от собственных этических принципов ради «национальной безопасности» — или это и есть тот момент, когда принципы нужнее всего?

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Похожие материалы

110 миллиардов за мечту: что стоит за рекордным раундом OpenAI

OpenAI привлекла крупнейший раунд в истории венчурного рынка — $110 млрд при оценке $730 млрд. Разбираемся, кто дал деньги, зачем столько и что это значит для индустрии.

·4 мин·Выбор редакции

GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro: кто лучший в 2026 году

Три флагмана, десятки бенчмарков, ноль однозначных ответов. Разбираемся, какая модель реально лидирует — и почему ответ зависит от задачи.

·5 мин·Выбор редакции

AI для программистов: Claude Code vs Cursor vs Copilot vs Devin

Четыре подхода к AI-ассистированному кодингу: от автокомплита до полностью автономного агента. Разбираемся, кто для чего.

·5 мин·Выбор редакции