Все Insights

AI и оборона на Давосе: НАТО, автономное оружие и красные линии

Военное применение AI стало одной из самых острых тем Давоса-2026. НАТО представила новую доктрину, а производители вооружений впервые открыто обсуждали автономные системы.

Aravana··10 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
\xD0\x9A\xD0\xB0\xD0\xBA \xD0\xB2\xD0\xB0\xD0\xBC \xD0\xBC\xD0\xB0\xD1\x82\xD0\xB5\xD1\x80\xD0\xB8\xD0\xB0\xD0\xBB?

Давос -- экономический форум, но в январе 2026 года военная тема заняла непропорционально большое место в повестке. Причина очевидна: искусственный интеллект радикально меняет характер вооруженных конфликтов, и политические лидеры, собравшиеся в Швейцарии, не могли этого игнорировать. НАТО представила обновленную стратегию применения AI в обороне, а представители оборонных компаний впервые участвовали в открытых панельных дискуссиях наравне с технологическими гигантами.

Центральным документом стал новый NATO AI Strategy, представленный генеральным секретарем альянса. Документ определяет три уровня автономности военных AI-систем: вспомогательные системы, которые помогают человеку принимать решения; полуавтономные системы, действующие самостоятельно в рамках заданных параметров с возможностью человеческого вмешательства; и полностью автономные системы, которые принимают решения без участия человека. НАТО официально заявила, что решение о применении летальной силы должно всегда оставаться за человеком.

На практике эта граница размывается быстрее, чем дипломаты успевают ее определить. Несколько военных экспертов, выступавших на форуме, указали на конфликты в Украине и на Ближнем Востоке, где автономные дроны уже принимают тактические решения в условиях, когда связь с оператором потеряна. Разница между «полуавтономным» и «автономным» применением в реальном бою часто определяется не доктриной, а состоянием канала связи.

Израильская делегация представила опыт использования AI в военных операциях, вызвавший наибольшие споры. Системы целеуказания, использующие машинное обучение, позволяют обрабатывать разведывательные данные в тысячи раз быстрее, чем это может сделать человек. Но вопрос точности и ответственности за ошибки остается нерешенным. Несколько участников дискуссии прямо указали на случаи, когда AI-системы давали ложные срабатывания с трагическими последствиями.

Американские оборонные компании -- Lockheed Martin, Northrop Grumman, Anduril -- представили на Давосе свои AI-платформы для обороны. Anduril, основанная выходцем из Кремниевой долины Палмером Лаки, привлекла особое внимание благодаря Lattice -- платформе, которая интегрирует данные с различных сенсоров и предлагает командирам тактические решения в реальном времени. Компания позиционирует себя как мост между Кремниевой долиной и Пентагоном.

Китайская делегация демонстративно не участвовала в панелях по военному AI, но провела серию двусторонних встреч. По информации нескольких источников, обсуждались возможные механизмы ограничения автономных систем по аналогии с договорами о ракетах средней дальности. Однако практические перспективы таких соглашений оцениваются скептически: в отличие от ядерного оружия, AI-системы невозможно подсчитать, верифицировать и ограничить количественно.

Этическая дискуссия на Давосе вышла за рамки привычных аргументов. Философ из Оксфорда предложил разграничение между «автономностью решения» и «автономностью действия»: AI-система может автономно идентифицировать цель, но решение об атаке должно требовать человеческого подтверждения. Военные эксперты возразили, что в условиях современного боя, где счет идет на секунды, любая задержка может стоить жизней. Этот спор не имеет простого решения и, вероятно, будет определять военную доктрину на десятилетия.

Отдельная панель была посвящена кибервойне с использованием AI. Представители нескольких правительств подтвердили, что AI-системы уже используются для автоматизации кибератак и киберзащиты. Генеративные модели способны создавать фишинговые письма, неотличимые от настоящих, а AI-агенты могут автоматически находить и эксплуатировать уязвимости в программном обеспечении. Гонка вооружений в киберпространстве, усиленная AI, стала одной из наиболее тревожных тем форума.

Для технологических компаний военная тема создает сложную дилемму. Контракты с оборонными ведомствами приносят стабильный доход, но вызывают протесты сотрудников и репутационные риски. Google отказалась от Project Maven в 2018 году под давлением инженеров, но к 2026 году тихо вернулась к оборонным контрактам. Microsoft, Amazon и Oracle активно работают с Пентагоном. Anthropic и OpenAI публично ограничивают военное использование своих моделей, но грань между «военным» и «оборонным» применением остается размытой.

Давос-2026 показал, что военное применение AI перестало быть маргинальной темой и вошло в мейнстрим глобальной политической дискуссии. Красные линии, которые международное сообщество пытается установить, пока остаются декларативными. Практика обгоняет регулирование, а технологическое развитие ускоряется быстрее, чем дипломатические процессы. Единственное, в чем участники форума были единодушны: AI фундаментально изменит характер войны, и у мирового сообщества остается не так много времени, чтобы определить правила.

Связанные темы:AI

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Карта AI-уязвимости по странам: кто выиграет, кто проиграет

МВФ оценивает, что в богатых странах 34% рабочих мест подвержены AI, в бедных — лишь 11%. Сингапур лидирует по AI-навыкам. Разбираем глобальную карту AI-уязвимости.

·4 мин

Контрабанда AI-чипов в Китай: первое уголовное дело на $2.5 млрд

Минюст США предъявил обвинения сооснователю Super Micro Computer и двум сообщникам в контрабанде серверов с чипами NVIDIA в Китай. AI supply chain теперь -- зона уголовного риска.

·7 мин

Белый дом представил национальный AI-фреймворк: семь направлений и ни одного нового регулятора

Администрация Трампа опубликовала первый национальный фреймворк для AI-законодательства. Федеральные правила должны заменить лоскутное одеяло из законов штатов.

·7 мин