AI и автономное оружие: где проходит красная линия
Доклады HRW, позиция НАТО, предупреждения ICRC и анализ EFF. Мировое сообщество пытается провести красную линию для AI в военных системах — но кто её проведёт и кто будет соблюдать?
Тип материала: Анализ
В ноябре 2025 года Human Rights Watch опубликовала 84-страничный доклад «Machines of War: The Case Against Autonomous Weapons». В нём организация, известная своей многолетней работой по запрету кассетных боеприпасов и противопехотных мин, впервые посвятила целый доклад AI-оружию. Главный вывод: мир стоит на пороге «третьей революции в вооружениях» — после пороха и ядерного оружия — и у него есть, возможно, последнее десятилетие для установления правовых рамок.
Мы считаем этот доклад одним из важнейших документов 2025 года. Разберём ключевые аргументы — и контраргументы.
**Что такое автономное оружие?** Вопрос определения — ключевой и нерешённый. HRW определяет автономное оружие как «систему, которая выбирает и поражает цели без прямого человеческого контроля». Международный Комитет Красного Креста (ICRC) использует более узкое определение: «система, которая после активации может выбирать и атаковать цели без дальнейшего вмешательства оператора». Разница не академическая: от определения зависит, какие системы попадут под возможный запрет.
Например, система ПВО, автоматически сбивающая приближающиеся ракеты, существует десятилетия (Phalanx CIWS). Это автономное оружие? По определению HRW — да. По определению большинства военных — нет, потому что оператор активирует систему и может деактивировать её. Но что, если AI управляет не реактивной системой ПВО, а наступательным дроном, который сам ищет и атакует цели на территории противника? Здесь консенсус ближе: это автономное оружие.
**Позиция ООН и попытки договора.** С 2013 года в рамках Конвенции о негуманном оружии (CCW) ведутся переговоры о регулировании автономных систем вооружения (LAWS — Lethal Autonomous Weapons Systems). За 13 лет переговоры не привели к обязывающему документу. Россия и США систематически блокируют принятие запретительного договора, ссылаясь на «преждевременность» и «необходимость дополнительного изучения».
В ноябре 2025 года Генеральная Ассамблея ООН приняла необязывающую резолюцию, призывающую к «разработке международного инструмента» по регулированию автономного оружия. 164 страны проголосовали «за», 4 — «против» (США, Россия, Индия, Израиль), 12 воздержались. Резолюция не имеет юридической силы, но создаёт политическое давление.
**Позиция НАТО.** В октябре 2025 года НАТО опубликовала документ «Responsible AI in Defence», в котором сформулировала шесть принципов военного AI: законность, ответственность, объяснимость, прослеживаемость, надёжность и управляемость. Ключевой принцип — «meaningful human control» (значимый человеческий контроль): решение о применении летальной силы должно приниматься человеком, а не алгоритмом.
Критики указывают на два слабых места. Во-первых, принципы НАТО — рекомендательные, а не обязывающие. Во-вторых, формулировка «meaningful human control» размыта: если оператор нажимает кнопку «подтвердить» после того, как AI выбрал цель, — это «значимый контроль» или «формальная галочка»? В условиях, когда AI обрабатывает данные за миллисекунды, а человек не способен верифицировать его решение, «контроль» может быть иллюзией.
**Позиция ICRC.** Международный Комитет Красного Креста в мае 2025 года занял наиболее чёткую позицию среди международных организаций: «ICRC рекомендует международный запрет на автономные системы вооружения, предназначенные для применения силы против людей». Обратите внимание на уточнение: «против людей». ICRC не требует запрета на автономные системы ПВО или противодроновые системы — только на те, которые направлены на людей. Это прагматичная позиция, которая, возможно, имеет больше шансов на реализацию, чем тотальный запрет.
**Анализ EFF.** Electronic Frontier Foundation опубликовала в январе 2026 года развёрнутый анализ «AI and the Right to Life: Legal Frameworks for Autonomous Weapons». Ключевой тезис: существующие нормы международного гуманитарного права (в частности, принцип различия между комбатантами и некомбатантами, принцип пропорциональности и принцип предосторожности) уже сейчас делают применение полностью автономного оружия незаконным. Проблема не в отсутствии закона — а в отсутствии механизмов правоприменения.
EFF также указывает на проблему «accountability gap» — разрыва ответственности. Если автономный дрон убивает мирного жителя, кто несёт ответственность? Оператор, который не контролировал дрон в момент удара? Командир, который санкционировал применение? Инженер, который написал алгоритм? Компания-производитель? AI-лаборатория, чья модель использовалась? В существующих правовых рамках ответ неочевиден, и это означает, что де-факто не несёт ответственности никто.
**Риски пролиферации.** Отдельная и, возможно, наиболее тревожная тема — распространение военного AI. В отличие от ядерного оружия, AI-технологии двойного назначения общедоступны. LLaMA от Meta — в открытом доступе. Документация по тренировке моделей — в открытом доступе. Средства для создания дронов-камикадзе с AI-наведением — относительно дёшевы и доступны. Доклад RAND Corporation от декабря 2025 года предупреждает: «В течение пяти лет негосударственные вооружённые группы смогут создавать автономные системы вооружения с возможностями, сопоставимыми с государственными».
Ирония ситуации: пока правительства спорят с AI-компаниями об условиях контрактов, базовые технологии для автономного оружия становятся всё более доступными. Запрет или ограничение со стороны Anthropic, OpenAI или Google может замедлить, но не остановить пролиферацию — просто потому, что открытые модели уже существуют.
**Позиция Anthropic в контексте.** Две красные линии Anthropic — запрет на массовое наблюдение и на автономное оружие без человеческого контроля — совпадают с рекомендациями ICRC и принципами НАТО. По сути, Anthropic требовала от Пентагона того, что международное сообщество считает минимальным стандартом. Тот факт, что даже этот минимум был отвергнут, говорит о разрыве между международными нормами и реальной практикой.
**Где проходит красная линия?** Мы видим консенсус формирующегося, но ещё не сформированного. Большинство экспертов и организаций сходятся на двух принципах: во-первых, решение о применении летальной силы против людей должен принимать человек (human in the loop). Во-вторых, должна существовать чёткая цепочка ответственности за каждое применение AI в военных целях (accountability chain).
Но между формулированием принципа и его соблюдением — пропасть. Ядерное оружие было применено дважды, прежде чем мир осознал необходимость контроля. Мы не можем позволить себе такой «обучающий опыт» с автономным AI-оружием. Последствия могут быть не менее катастрофическими, но гораздо менее управляемыми — именно потому, что AI-оружие не требует инфраструктуры ядерной державы для создания.
Красная линия не проведена. Мы знаем примерно, где она должна проходить. Но пока ни одно государство и ни одна международная организация не обладает достаточным авторитетом и инструментами, чтобы провести её так, чтобы она действительно соблюдалась.
Считаете ли вы, что международный запрет на автономное оружие реалистичен — или мы уже прошли точку невозврата, и остаётся лишь минимизировать ущерб?
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНавыки, которые AI не заменит: что делает человека незаменимым
Этическое суждение признано навыком номер один, который AI не может воспроизвести. 72% руководителей ценят soft skills выше AI-навыков при найме.
Безос вкладывает $100 млрд в ИИ-производство: ставка на физический мир
Джефф Безос объявил о фонде в $100 млрд для трансформации производства с помощью ИИ. Мы размышляем, почему это не очередной хайп, а попытка переосмыслить саму природу индустрии.
Уход CEO Adobe: когда ИИ меняет не инструменты, а лидеров
Глава Adobe ушёл в отставку на фоне ИИ-трансформации. Мы рассуждаем о том, что происходит, когда технологический сдвиг требует не просто новых продуктов, а нового типа руководства.