Все Insights

Урок Anthropic: что конфликт с Пентагоном значит для будущего AI

Оксфордские и Chatham House аналитики, провалы governance, слушание 25 марта, amicus brief от Microsoft и 150 отставных судей. Что конфликт Anthropic с Пентагоном говорит нам о будущем регулирования AI.

Aravana··6 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn

К середине марта 2026 года конфликт между Anthropic и Пентагоном перерос рамки корпоративного спора. Он стал тестом: способны ли существующие институты — правовые, политические, международные — справиться с вызовами, которые ставит AI военного назначения? Ответ, как показали первые три недели, неутешителен.

Мы проанализировали экспертные оценки, судебные документы и реакцию международного сообщества, чтобы понять, какие уроки можно извлечь из этого конфликта.

**Оксфордский анализ: «провал governance».** 5 марта Институт этики AI Оксфордского университета (Institute for Ethics in AI) опубликовал аналитическую записку «The Anthropic Crisis and the Failure of AI Governance». Главный тезис: конфликт обнажил системный провал на трёх уровнях.

Первый уровень — корпоративный. AI-компании принимают решения о военном применении технологий без устоявшихся внутренних механизмов. Этические комитеты, где они существуют, имеют рекомендательный характер. Решение о контракте с Пентагоном или отказе от него принимается CEO и советом директоров — людьми, чьи интересы не всегда совпадают с интересами общества.

Второй уровень — национальный. В США отсутствует федеральный закон, регулирующий военное применение AI. Executive orders (исполнительные указы) — временные и зависящие от администрации. Указ Байдена об AI от 2023 года был частично отменён при следующей администрации. Нет постоянного органа, наделённого полномочиями аудита военных AI-систем.

Третий уровень — международный. Переговоры в рамках CCW зашли в тупик. ООН не имеет механизмов принуждения. Международные нормы отстают от технологий на десятилетия.

Профессор Карисса Велиз, один из авторов записки, написала в X: «Мы потратили 70 лет на создание международного режима контроля ядерного оружия. У нас нет 70 лет для AI. Развитие технологии измеряется месяцами, а не десятилетиями».

**Chatham House: геополитическое измерение.** 10 марта Chatham House (Королевский институт международных дел) провёл закрытую конференцию «AI and National Security: Lessons from the Anthropic Case». Краткое изложение выводов было опубликовано 14 марта.

Ключевой тезис Chatham House: конфликт Anthropic с Пентагоном — не изолированный инцидент, а проявление структурного противоречия между «technology sovereignty» (технологическим суверенитетом государств) и «technology autonomy» (автономией технологических компаний). Государства хотят контролировать AI как стратегический актив. Компании хотят сохранить свободу определять условия использования своих продуктов. Эти два желания несовместимы.

Chatham House предложил три сценария развития ситуации. Сценарий A: «подчинение» — AI-компании полностью интегрируются в государственные структуры, как оборонные подрядчики прошлого века (Lockheed Martin, Raytheon). Сценарий B: «регулируемая автономия» — создание независимых регуляторных органов, определяющих границы допустимого, при сохранении коммерческой самостоятельности компаний. Сценарий C: «фрагментация» — разные страны устанавливают разные правила, AI-компании выбирают юрисдикции. Chatham House считает сценарий B оптимальным, но сценарий C — наиболее вероятным.

**Слушание 25 марта.** Через пять дней, 25 марта 2026 года, в Федеральном окружном суде округа Колумбия начнётся первое слушание по иску Anthropic vs. Department of Defense. Дело рассматривает судья Элизабет Чен, назначенная в 2023 году. Формально слушание посвящено процедурным вопросам: допустимость иска, подсудность, возможность срочного судебного запрета (preliminary injunction) на чёрный список.

Но значение дела выходит далеко за процедурные рамки. Впервые федеральный суд будет рассматривать вопрос: может ли правительство принуждать технологическую компанию к отказу от самостоятельно установленных этических ограничений? Решение создаст прецедент, который определит правила игры для всей индустрии.

Юристы по обе стороны готовятся к длительному процессу. Anthropic представляет Gibson Dunn — одна из наиболее престижных юридических фирм США. Пентагон — собственное юридическое управление (Office of General Counsel) при поддержке Department of Justice. Обе стороны подали десятки документов, общим объёмом более 2000 страниц.

**Microsoft: неожиданный союзник.** 15 марта Microsoft подала amicus brief в поддержку Anthropic. Это — исключительный шаг, учитывая, что Microsoft является стратегическим партнёром и крупнейшим инвестором OpenAI — прямого конкурента Anthropic, заключившего контракт, от которого Anthropic отказалась.

В 12-страничном документе Microsoft аргументировала: «Право технологических компаний устанавливать условия использования своих продуктов — фундаментальный принцип свободы предпринимательства. Если правительство может принудить одну компанию к отказу от этических ограничений, оно может принудить любую. Сегодня — AI для военных. Завтра — бэкдоры в операционных системах. Послезавтра — цензура в поисковых системах».

Президент Microsoft Брэд Смит пояснил в интервью CNBC: «Мы не комментируем контракт OpenAI с Пентагоном — это их решение. Но мы категорически против прецедента, при котором правительство может наказывать компании за этическую позицию. Это касается не только AI — это касается всей технологической индустрии».

**150 отставных судей.** К 18 марта 150 отставных федеральных судей (бывших судей окружных и апелляционных судов) подписали коллективный amicus brief в поддержку Anthropic. Документ подготовлен при координации Brennan Center for Justice. Судьи аргументировали, что действия Пентагона нарушают как минимум три конституционных принципа: свободу слова (First Amendment), надлежащую правовую процедуру (Due Process) и запрет на ретроактивное наказание (Bill of Attainder Clause).

Число 150 — значительное. Для контекста: в деле Citizens United v. FEC (2010), одном из наиболее значимых конституционных дел в истории, amicus brief подписали 23 отставных судьи. 150 — это заявление, которое суд не может игнорировать.

**Провалы governance: конкретные примеры.** Конфликт выявил несколько конкретных провалов в системе управления.

Провал первый: отсутствие механизма аудита. После того как Anthropic передала Claude через Palantir, у компании не было технической возможности отслеживать, как модель используется. Нет индустриального стандарта аудита военного AI, нет обязательных требований к логированию, нет независимых проверяющих.

Провал второй: конфликт интересов в Совете по AI. Совет по AI при президенте, из которого был исключён Amodei, включает представителей OpenAI, Google и Amazon — компаний, которые прямо выигрывают от блокировки Anthropic. Это структурный конфликт интересов, на который указали несколько сенаторов.

Провал третий: скорость vs. осмотрительность. Трёхдневный дедлайн ультиматума Хегсета — пример того, как скорость принятия решений в военной сфере несовместима с осмотрительным подходом к AI-этике. Решения, затрагивающие миллионы людей, не должны приниматься за 72 часа под угрозой чёрного списка.

**Что это значит для будущего AI.** Мы видим несколько долгосрочных последствий этого конфликта.

Первое: юридический прецедент. Независимо от исхода дела, судебный процесс создаст правовую базу для будущих конфликтов между AI-компаниями и правительствами. Впервые суд определит, насколько далеко может зайти государство в требованиях к AI-компаниям.

Второе: ускорение регулирования. Конфликт сделал невозможным дальнейшее откладывание системного регулирования военного AI. В Конгрессе уже поданы три законопроекта (два от демократов, один двухпартийный), предлагающих различные модели регулирования. EU AI Act может быть дополнен специальным разделом о военном применении.

Третье: раскол индустрии. AI-компании больше не могут делать вид, что вопрос военного применения их не касается. Каждая компания вынуждена определить свою позицию — и жить с последствиями. Это здоровый процесс, но болезненный.

Четвёртое: переоценка модели «AI-компания как нейтральный поставщик». Идея о том, что AI-компания просто создаёт технологию, а клиент сам решает, как её использовать, оказалась несостоятельной. Технологии двойного назначения требуют активной позиции разработчика. Anthropic это приняла. Остальным ещё предстоит.

Мы наблюдаем за развитием этой истории не как сторонние комментаторы, а как участники индустрии, которая проходит через момент определяющего выбора. История Anthropic — не история одной компании. Это история о том, какие отношения между технологией, государством и обществом мы хотим построить. Ответ на этот вопрос определит следующие десятилетия — и дать его предстоит не только Anthropic, Пентагону или суду, но всем нам.

25 марта начнутся слушания. Мы будем следить.

Какой из трёх сценариев Chatham House — подчинение, регулируемая автономия или фрагментация — вы считаете наиболее вероятным для AI-индустрии через 5 лет? И какой из них был бы оптимальным для общества?

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Похожие материалы

Навыки, которые AI не заменит: что делает человека незаменимым

Этическое суждение признано навыком номер один, который AI не может воспроизвести. 72% руководителей ценят soft skills выше AI-навыков при найме.

·4 мин·Выбор редакции

Безос вкладывает $100 млрд в ИИ-производство: ставка на физический мир

Джефф Безос объявил о фонде в $100 млрд для трансформации производства с помощью ИИ. Мы размышляем, почему это не очередной хайп, а попытка переосмыслить саму природу индустрии.

·9 мин

Уход CEO Adobe: когда ИИ меняет не инструменты, а лидеров

Глава Adobe ушёл в отставку на фоне ИИ-трансформации. Мы рассуждаем о том, что происходит, когда технологический сдвиг требует не просто новых продуктов, а нового типа руководства.

·7 мин