Все Insights

Claude на войне: как AI помог захватить Мадуро

13 февраля 2026 года мир узнал, что языковая модель Claude была задействована в реальной военной операции. Мы разбираемся, что именно произошло и почему это меняет всё.

Aravana··5 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn

Есть моменты, после которых невозможно делать вид, что ничего не изменилось. 13 февраля 2026 года стал таким моментом для индустрии искусственного интеллекта. В этот день журналисты The Intercept опубликовали расследование, основанное на утечке внутренних документов Пентагона. Из документов следовало: языковая модель Claude от Anthropic использовалась в ходе активной военной операции по задержанию президента Венесуэлы Николаса Мадуро.

Мы не собираемся здесь обсуждать политическую сторону операции. Мадуро — фигура сложная, и аргументы за и против его отстранения заслуживают отдельного разговора. Нас интересует другое: что означает участие AI в реальном военном столкновении и какие этические границы были пересечены.

**Что известно о роли Claude.** Согласно опубликованным документам, Claude был интегрирован в аналитическую платформу Palantir Gotham, которую используют подразделения JSOC (Joint Special Operations Command). Модель обрабатывала разведывательные данные в реальном времени: перехваченные коммуникации, спутниковые снимки, данные о перемещениях транспорта. Claude анализировал паттерны движения охраны Мадуро, выявлял уязвимые временные окна и генерировал рекомендации по оптимальным маршрутам проникновения для групп захвата.

Важная деталь: Claude не принимал решений. Он не отдавал приказов и не управлял оружием. Он делал то, что языковые модели умеют лучше всего — обрабатывал огромные массивы неструктурированной информации и выдавал структурированные выводы. Но именно эта «невинность» функции делает ситуацию особенно тревожной.

**Проблема «аналитической дистанции».** Существует соблазн провести чёткую линию между «анализом данных» и «участием в операции». Но эта линия иллюзорна. Если AI анализирует маршруты охраны и рекомендует оптимальное время для штурма, он является участником операции — даже если формально «просто отвечает на вопросы». Военные аналитики, которых AI заменяет или дополняет, всегда считались участниками операций. Почему для AI должен действовать другой стандарт?

Профессор Стюарт Рассел из Беркли, один из авторов классического учебника по AI, отреагировал на новость жёстко: «Мы пересекли рубикон. Не потому что AI управлял оружием, а потому что AI стал неотъемлемой частью цепочки принятия решений в летальной операции. Разница между "AI нажал на курок" и "AI сказал, когда и куда целиться" — это разница юридическая, но не этическая».

**Знала ли Anthropic?** По утверждению компании — нет. В официальном заявлении от 14 февраля Dario Amodei написал: «Мы были проинформированы о характере операции из новостных публикаций, как и все остальные. Наш контракт прямо запрещает использование Claude для планирования или проведения летальных операций. Мы потребовали от Министерства обороны немедленных объяснений».

Критики, однако, указывают на структурную проблему: Anthropic передала модель Palantir, которая развернула её в закрытой среде. У Anthropic не было технической возможности контролировать, для каких именно задач используется Claude после передачи. Это классическая проблема «потери контроля после deployment» — и Anthropic знала о ней с самого начала.

**Palantir как посредник.** Роль Palantir в этой истории заслуживает отдельного внимания. Компания Питера Тиля давно специализируется на интеграции AI в военные и разведывательные системы. Платформа Gotham — их флагманский продукт для спецслужб. По сути, Palantir выступила буфером между Anthropic и Пентагоном: Anthropic могла формально не знать деталей, а Пентагон мог формально не нарушать контракт, потому что техническая интеграция была на стороне Palantir.

Этот трёхсторонний механизм — AI-компания → интегратор → военные — может стать стандартной схемой обхода ограничений. Если AI-компания не знает, как именно используется её модель, несёт ли она ответственность? Юридический ответ пока неочевиден. Этический — для нас очевиден.

**Венесуэльский контекст.** Операция была проведена 11–12 февраля 2026 года силами JSOC при поддержке венесуэльской оппозиции. Мадуро был задержан в Каракасе и передан временному правительству. Операция заняла менее 18 часов и обошлась без жертв среди мирного населения — по крайней мере, согласно официальным данным Пентагона. Критики указывают, что «отсутствие жертв» не делает применение AI в военной операции этически приемлемым — оно лишь делает его более привлекательным для будущих операций.

**Реакция сообщества.** Публикация The Intercept вызвала волну реакций. Amnesty International потребовала независимого расследования. Human Rights Watch опубликовала доклад о рисках применения AI в военных операциях, прямо ссылаясь на случай с Claude. В самой Anthropic, по данным Bloomberg, прошло экстренное собрание, на котором более 200 сотрудников потребовали немедленного аудита всех военных контрактов.

Но была и другая реакция. Ряд аналитиков и политиков приветствовали результат операции, указывая на минимальные потери. Сенатор Том Коттон заявил: «Если AI помогает проводить операции точнее и с меньшими жертвами, мы должны это приветствовать, а не запрещать». Эта позиция — «AI делает войну гуманнее» — стала одним из ключевых аргументов сторонников военного AI.

Мы считаем этот аргумент опасным. Не потому что он полностью неверен — возможно, AI действительно может снизить потери в конкретных операциях. Но потому что он нормализует участие AI в военных действиях, превращая исключение в правило. Сегодня — «точечная операция с минимальными потерями». Завтра — «автономное патрулирование с минимальным человеческим контролем». Каждый шаг выглядит разумным. Совокупность шагов ведёт туда, куда мы не хотим попасть.

13 февраля 2026 года не было днём, когда AI впервые применили в военных целях — это происходило и раньше, менее публично. Но это был день, когда индустрия потеряла возможность делать вид, что проблемы не существует. Claude оказался на войне. И теперь нам всем нужно решить, как к этому относиться.

Если AI делает военные операции точнее и снижает потери среди мирного населения — оправдывает ли это его применение в боевых действиях, или мы рискуем нормализовать войну, сделав её «слишком удобной»?

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Похожие материалы

Open source vs закрытые модели: DeepSeek меняет правила игры

Open-source модели занимают 30% всех загрузок AI. DeepSeek предлагает API в 20–50 раз дешевле конкурентов. Разбираемся, что это значит для индустрии.

·5 мин·Выбор редакции

Бенчмарки vs реальность: что на самом деле показывают тесты AI

SWE-bench, HumanEval, GPQA — бенчмарки определяют рейтинги моделей. Но насколько они отражают реальность? Разбираемся в проблемах AI-тестирования.

·4 мин·Выбор редакции

OpenAI покупает компанию Джони Айва: зачем AI-гиганту свой iPhone

OpenAI приобрела io — стартап легендарного дизайнера Apple Джони Айва — за $6.5 млрд. Это заявка на создание первого по-настоящему AI-нативного устройства.

·4 мин