ИИ и кибербезопасность на Давосе: гонка вооружений между атакующими и защитниками

На WEF Davos 2026 кибербезопасность в эпоху ИИ стала одной из центральных тем. Атакующие используют генеративные модели для создания фишинга и вредоносного кода, защитники -- для обнаружения угроз в реальном времени.

Aravana··2 мин

Кибербезопасность в эпоху искусственного интеллекта стала одной из наиболее обсуждаемых тем на Давосе 2026. Всемирный экономический форум выпустил специальный доклад, констатирующий: ИИ радикально меняет ландшафт угроз и одновременно предоставляет новые инструменты защиты. Гонка вооружений между атакующими и защитниками выходит на новый уровень.

Атакующая сторона использует генеративный ИИ для масштабирования и усовершенствования атак. Фишинговые письма, сгенерированные LLM, практически неотличимы от настоящей корреспонденции. Дипфейки голоса и видео используются для мошенничества: зафиксированы случаи, когда AI-сгенерированный голос CEO использовался для авторизации денежных переводов. Автоматическая генерация вредоносного кода позволяет создавать полиморфные вирусы, которые меняют свою сигнатуру при каждом запуске.

Защитная сторона отвечает AI-системами обнаружения угроз. CrowdStrike, Palo Alto Networks и Darktrace представили на полях форума свои решения. ML-модели анализируют миллиарды событий в сети в реальном времени, выявляя аномалии, которые человеческий аналитик не заметил бы. Время обнаружения вторжения сокращается с дней до минут. Автоматический ответ на инциденты -- изоляция скомпрометированных систем, блокировка подозрительного трафика -- выполняется без участия человека.

Социальная инженерия и безопасность AI-систем

Отдельная сессия была посвящена социальной инженерии нового поколения. ИИ позволяет создавать персонализированные атаки, используя открытые данные о жертве из социальных сетей, публикаций и корпоративных сайтов. Такие атаки на порядок эффективнее массового фишинга. Несколько CISO крупных компаний отметили, что обучение сотрудников распознавать фишинг становится все менее эффективным, когда качество атак растет экспоненциально.

Вопрос безопасности самих AI-систем поднимался неоднократно. Prompt injection, data poisoning, adversarial attacks на модели -- новые классы угроз, которых не существовало несколько лет назад. Компании, внедряющие ИИ в критические бизнес-процессы, создают новые векторы атак. Безопасность AI-систем становится отдельной дисциплиной, требующей специфической экспертизы.

Государственные кибератаки с использованием ИИ обсуждались в закрытом формате. Несколько участников форума, имеющих доступ к разведывательной информации, отметили рост AI-enabled кибератак со стороны государственных акторов. Масштаб и сложность таких атак растут, а атрибуция усложняется: ИИ помогает скрывать следы и имитировать почерк других групп.

Для бизнеса экономический ущерб от кибератак продолжает расти. По данным IBM, средняя стоимость утечки данных в 2025 году превысила 5 миллионов долларов. С учетом AI-усиленных атак эта цифра, вероятно, увеличится. Страховые компании в Давосе отмечали рост стоимости киберстрахования и ужесточение требований к страхователям -- наличие AI-систем защиты становится условием получения полиса.

Кадровый дефицит и международное сотрудничество

Дефицит кадров в кибербезопасности, и без того острый, усугубляется AI-фактором. Специалисты, понимающие и кибербезопасность, и машинное обучение, -- редкость на рынке. Несколько компаний представили решения, которые используют ИИ для компенсации кадрового дефицита: AI-ассистенты для аналитиков SOC автоматизируют рутинные задачи и позволяют небольшим командам обеспечивать уровень защиты, ранее доступный только крупным организациям.

Международное сотрудничество в области AI-кибербезопасности обсуждалось как необходимость. Киберпреступники не ограничены национальными границами, а ИИ снижает порог входа для атакующих. Несколько участников форума призвали к созданию международных механизмов обмена данными об AI-угрозах и координации ответных мер. Реалистичность таких инициатив в условиях геополитической напряженности вызывает вопросы.

Давос 2026 зафиксировал простую истину: ИИ делает кибербезопасность и более опасной, и более управляемой одновременно. Компании, которые не интегрируют ИИ в свою защиту, проиграют атакующим, которые уже это сделали. Гонка вооружений ускоряется, и остаться в стороне -- значит стать жертвой.

Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
Как вам материал?

Читайте также

Связанные темы:Strategy & Adaptation

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

IBM: 64% CEO принимают стратегические решения на основе AI

Исследование IBM: 64% CEO глобальных компаний уже принимают стратегические решения на основе AI — не изучают, не тестируют, а принимают.

·1 мин

Mistral открыла свою флагманскую модель — Medium 3.5 в открытом доступе обгоняет Qwen 3.5

Mistral выпустила открытую AI-модель Medium 3.5 на 128 миллиардов параметров, обогнавшую Qwen 3.5 и Devstral 2 в программировании.

·1 мин

Китай: четыре открытые AI-модели за 12 дней дешевле Claude в 4 раза

DeepSeek V4 Pro, Kimi K2.6, GLM-5.1, MiniMax M2.7 — паритет с западным фронтиром в кодинге при стоимости в 4 раза ниже Claude Opus 4.7.

·1 мин