Claude на войне: как AI помог захватить Мадуро
13 февраля 2026 года мир узнал, что языковая модель Claude была задействована в реальной военной операции. Мы разбираемся, что именно произошло и почему это меняет всё.
Есть моменты, после которых невозможно делать вид, что ничего не изменилось. 13 февраля 2026 года стал таким моментом для индустрии искусственного интеллекта. В этот день журналисты The Intercept опубликовали расследование, основанное на утечке внутренних документов Пентагона. Из документов следовало: языковая модель Claude от Anthropic использовалась в ходе активной военной операции по задержанию президента Венесуэлы Николаса Мадуро.
Мы не собираемся здесь обсуждать политическую сторону операции. Мадуро — фигура сложная, и аргументы за и против его отстранения заслуживают отдельного разговора. Нас интересует другое: что означает участие AI в реальном военном столкновении и какие этические границы были пересечены.
Роль Claude в операции
**Что известно о роли Claude.** Согласно опубликованным документам, Claude был интегрирован в аналитическую платформу Palantir Gotham, которую используют подразделения JSOC (Joint Special Operations Command). Модель обрабатывала разведывательные данные в реальном времени: перехваченные коммуникации, спутниковые снимки, данные о перемещениях транспорта. Claude анализировал паттерны движения охраны Мадуро, выявлял уязвимые временные окна и генерировал рекомендации по оптимальным маршрутам проникновения для групп захвата.
Важная деталь: Claude не принимал решений. Он не отдавал приказов и не управлял оружием. Он делал то, что языковые модели умеют лучше всего — обрабатывал огромные массивы неструктурированной информации и выдавал структурированные выводы. Но именно эта «невинность» функции делает ситуацию особенно тревожной.
Проблема аналитической дистанции
**Проблема «аналитической дистанции».** Существует соблазн провести чёткую линию между «анализом данных» и «участием в операции». Но эта линия иллюзорна. Если AI анализирует маршруты охраны и рекомендует оптимальное время для штурма, он является участником операции — даже если формально «просто отвечает на вопросы». Военные аналитики, которых AI заменяет или дополняет, всегда считались участниками операций. Почему для AI должен действовать другой стандарт?
Профессор Стюарт Рассел из Беркли, один из авторов классического учебника по AI, отреагировал на новость жёстко: «Мы пересекли рубикон. Не потому что AI управлял оружием, а потому что AI стал неотъемлемой частью цепочки принятия решений в летальной операции. Разница между "AI нажал на курок" и "AI сказал, когда и куда целиться" — это разница юридическая, но не этическая».
Знала ли Anthropic о применении
**Знала ли Anthropic?** По утверждению компании — нет. В официальном заявлении от 14 февраля Dario Amodei написал: «Мы были проинформированы о характере операции из новостных публикаций, как и все остальные. Наш контракт прямо запрещает использование Claude для планирования или проведения летальных операций. Мы потребовали от Министерства обороны немедленных объяснений».
Критики, однако, указывают на структурную проблему: Anthropic передала модель Palantir, которая развернула её в закрытой среде. У Anthropic не было технической возможности контролировать, для каких именно задач используется Claude после передачи. Это классическая проблема «потери контроля после deployment» — и Anthropic знала о ней с самого начала.
Palantir как посредник
**Palantir как посредник.** Роль Palantir в этой истории заслуживает отдельного внимания. Компания Питера Тиля давно специализируется на интеграции AI в военные и разведывательные системы. Платформа Gotham — их флагманский продукт для спецслужб. По сути, Palantir выступила буфером между Anthropic и Пентагоном: Anthropic могла формально не знать деталей, а Пентагон мог формально не нарушать контракт, потому что техническая интеграция была на стороне Palantir.
Этот трёхсторонний механизм — AI-компания → интегратор → военные — может стать стандартной схемой обхода ограничений. Если AI-компания не знает, как именно используется её модель, несёт ли она ответственность? Юридический ответ пока неочевиден. Этический — для нас очевиден.
**Венесуэльский контекст.** Операция была проведена 11–12 февраля 2026 года силами JSOC при поддержке венесуэльской оппозиции. Мадуро был задержан в Каракасе и передан временному правительству. Операция заняла менее 18 часов и обошлась без жертв среди мирного населения — по крайней мере, согласно официальным данным Пентагона. Критики указывают, что «отсутствие жертв» не делает применение AI в военной операции этически приемлемым — оно лишь делает его более привлекательным для будущих операций.
Реакция международного сообщества
**Реакция сообщества.** Публикация The Intercept вызвала волну реакций. Amnesty International потребовала независимого расследования. Human Rights Watch опубликовала доклад о рисках применения AI в военных операциях, прямо ссылаясь на случай с Claude. В самой Anthropic, по данным Bloomberg, прошло экстренное собрание, на котором более 200 сотрудников потребовали немедленного аудита всех военных контрактов.
Но была и другая реакция. Ряд аналитиков и политиков приветствовали результат операции, указывая на минимальные потери. Сенатор Том Коттон заявил: «Если AI помогает проводить операции точнее и с меньшими жертвами, мы должны это приветствовать, а не запрещать». Эта позиция — «AI делает войну гуманнее» — стала одним из ключевых аргументов сторонников военного AI.
Мы считаем этот аргумент опасным. Не потому что он полностью неверен — возможно, AI действительно может снизить потери в конкретных операциях. Но потому что он нормализует участие AI в военных действиях, превращая исключение в правило. Сегодня — «точечная операция с минимальными потерями». Завтра — «автономное патрулирование с минимальным человеческим контролем». Каждый шаг выглядит разумным. Совокупность шагов ведёт туда, куда мы не хотим попасть.
13 февраля 2026 года не было днём, когда AI впервые применили в военных целях — это происходило и раньше, менее публично. Но это был день, когда индустрия потеряла возможность делать вид, что проблемы не существует. Claude оказался на войне. И теперь нам всем нужно решить, как к этому относиться.
Если AI делает военные операции точнее и снижает потери среди мирного населения — оправдывает ли это его применение в боевых действиях, или мы рискуем нормализовать войну, сделав её «слишком удобной»?
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
- Dario Amodei: «Мы не сдвинемся с наших красных линий»
Использование Claude в операции против Мадуро — практический контекст, в котором Amodei отстаивал этические красные линии. Одно событие с разных углов.
- Anthropic и Пентагон: хронология конфликта, который расколол AI-индустрию
Операция с Мадуро — событие, которое обострило вопрос о военном использовании Claude и подтолкнуло к конфликту с Пентагоном.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.