Все Insights

85% компаний столкнулись с deepfake-инцидентами: новая реальность корпоративной безопасности

Исследование Deloitte показывает: абсолютное большинство крупных компаний уже пострадали от deepfake-атак. Как выглядит новый ландшафт угроз и что делать.

Aravana··4 мин

Тип материала: research

Поделиться:TelegramXLinkedIn
Как вам материал?

Цифра шокирует: по данным глобального опроса Deloitte Cyber Threat Intelligence, проведённого в феврале 2026 года, 85% компаний с выручкой свыше $1 млрд столкнулись хотя бы с одним deepfake-инцидентом за последние 12 месяцев. Из них 34% понесли прямые финансовые потери, 51% отделались попытками, которые были вовремя обнаружены. Для сравнения: аналогичный опрос в 2024 году показывал 26%. Рост — более чем трёхкратный за два года.

Самые распространённые сценарии атак: голосовой deepfake CEO с инструкцией на срочный перевод средств (41% инцидентов), видеозвонок от «партнёра» или «регулятора» с запросом конфиденциальных данных (29%), и deepfake-аватар в HR-процессах — кандидат на интервью, который оказывается не тем, за кого себя выдаёт (18%). Последний сценарий особенно вырос в 2026 году: ФБР зафиксировало сотни случаев, когда удалённые сотрудники проходили собеседования с помощью deepfake, чтобы получить доступ к корпоративным системам.

Финансовый ущерб растёт экспоненциально. Regula Forensics оценивает совокупный глобальный ущерб от deepfake-мошенничества в $12,3 млрд за 2025 год. Прогноз на 2026-й — $25 млрд. При этом страховые компании начинают исключать deepfake-инциденты из стандартных полисов киберстрахования, требуя доказательств наличия специализированных средств защиты. Lloyd's of London уже обновил формулировки стандартных полисов.

Что делают передовые компании? Три линии обороны. Первая — технологическая: решения для real-time deepfake detection от Sensity AI, Reality Defender и Intel FakeCatcher, которые анализируют микровыражения, артефакты компрессии и физиологические сигналы в видеопотоке. Вторая — процессная: обязательная двухканальная верификация для всех финансовых операций свыше порогового значения, ежедневная смена кодовых слов, запрет на исполнение срочных переводов по устной инструкции. Третья — культурная: регулярные тренинги и deepfake-учения, по аналогии с фишинг-симуляциями.

Для руководителей вывод однозначен: deepfake-атаки — это не теоретическая угроза, а текущий операционный риск, сопоставимый по масштабу с фишингом и ransomware. Компании, которые не внедрили специализированные контрмеры, фактически открыты для атак. При этом важно понимать: ни одна технология не даёт стопроцентной защиты. Наиболее устойчивые организации сочетают детекцию, процессы и обучение людей — потому что самое слабое звено по-прежнему человек, который верит голосу «босса» по телефону.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

72% крупных компаний вывели AI-агентов из пилотов в продакшн

Новое исследование Capgemini показывает: большинство крупных компаний перешли от экспериментов с AI-агентами к промышленной эксплуатации. Что изменилось за последний год.

·4 мин

Программисты и AI: парадокс автоматизации своих создателей

AI пишет код всё лучше, а спрос на программистов падает. Профессия, создавшая AI, может стать одной из его главных жертв.

·4 мин·Выбор редакции

NVIDIA открыла платформу для автономных AI-агентов: Adobe, Salesforce и Siemens уже на борту

NVIDIA представила AgentIQ — открытую платформу для создания и деплоя автономных AI-агентов на корпоративном уровне. Первые партнёры уже интегрируют технологию в свои продукты.

·4 мин