Все Insights

EU AI Act вступил в полную силу: что теперь нельзя, что можно, и кому это дорого обойдётся

С января 2026 года Европейский закон об искусственном интеллекте действует в полном объёме. Разбираемся в запретах, обязательствах и штрафах — и в том, как это повлияет на AI-компании по всему миру.

Aravana··4 мин

Тип материала: Анализ

Поделиться:TelegramXLinkedIn

Ключевые выводы

  • С января 2026 года EU AI Act применяется в полном объёме: запрещены системы социального скоринга, нерегулируемого биометрического наблюдения и манипулятивного AI.
  • Штрафы за нарушения достигают 7% глобального оборота компании — для крупных технологических гигантов это миллиарды евро.
  • Закон создаёт де-факто глобальный стандарт: компании, работающие с европейскими пользователями, вынуждены соответствовать требованиям независимо от юрисдикции.

Европейский закон об искусственном интеллекте (EU AI Act) — первый в мире комплексный закон, регулирующий AI, — вступил в полную силу в январе 2026 года. Закон был принят Европарламентом в марте 2024-го и вступал в силу поэтапно: запреты на самые рискованные AI-системы начали действовать с февраля 2025-го, а с начала 2026-го применяются все остальные положения, включая обязательства для систем высокого риска и правила для генеративного AI.

Что запрещено полностью? EU AI Act выделяет категорию «неприемлемого риска» — AI-системы, которые просто нельзя использовать в ЕС. К ним относятся: системы социального скоринга (по модели китайской системы социального кредита), AI для манипулирования поведением людей через подсознательные техники, системы биометрической идентификации в реальном времени в общественных местах (с узкими исключениями для правоохранительных органов), а также AI-системы, которые эксплуатируют уязвимости определённых групп — детей, пожилых, людей с инвалидностью.

Для систем «высокого риска» — а это AI в здравоохранении, образовании, найме, кредитовании, правоприменении — закон устанавливает подробные обязательства. Разработчики должны проводить оценку рисков, обеспечивать прозрачность принятия решений, вести логи работы системы, гарантировать человеческий надзор и регулярно проводить аудит. Это не рекомендации — это юридически обязывающие требования с конкретными сроками и процедурами.

Генеративный AI (GPAI — General Purpose AI) получил отдельный набор правил. Все модели общего назначения должны соблюдать правила авторского права, предоставлять техническую документацию и раскрывать информацию об обучающих данных. Модели с «системным риском» — а именно те, обучение которых потребовало более 10^25 FLOP (это уровень GPT-4 и выше) — подлежат дополнительному регулированию: обязательное red-teaming, отчёты о инцидентах, оценка кибербезопасности и энергоэффективности.

Штрафы за нарушения — одна из самых обсуждаемых частей закона. За использование запрещённых AI-систем — до 35 млн евро или 7% глобального годового оборота, в зависимости от того, что больше. Для компании масштаба Google (оборот ~$300 млрд) теоретический максимальный штраф составляет $21 млрд. Для нарушения остальных положений — до 15 млн евро или 3% оборота. Для предоставления ложной информации регуляторам — до 7.5 млн евро или 1% оборота.

Как это влияет на американские AI-компании? Напрямую и существенно. EU AI Act применяется к любой компании, которая предоставляет AI-системы пользователям в Европейском Союзе, независимо от того, где компания зарегистрирована. OpenAI, Anthropic, Google, Meta — все обязаны соответствовать. По аналогии с GDPR, который стал де-факто глобальным стандартом защиты данных, EU AI Act создаёт «брюссельский эффект»: проще соблюдать самые строгие правила для всех пользователей, чем поддерживать разные версии продукта для разных юрисдикций.

Реакция индустрии неоднозначна. Meta в конце 2025 года приняла решение не выпускать некоторые модели Llama в Европе из-за неопределённости в требованиях к обучающим данным. Марк Цукерберг публично критиковал закон, называя его «удушающим инновации». OpenAI, напротив, заняла более примирительную позицию: компания открыла офис в Дублине, наняла команду для работы с европейскими регуляторами и представила «EU Compliance Dashboard» для своих API-клиентов.

Anthropic, создатель Claude, поддержала закон в целом, хотя и отметила отдельные технические проблемы с определением «системного риска». CEO Дарио Амодеи неоднократно говорил, что разумное регулирование AI — это необходимость, а не угроза. Позиция Anthropic здесь стратегическая: компания, которая строит бренд на безопасности AI, выигрывает от регулирования, создающего барьеры для менее ответственных конкурентов.

На практике первые месяцы полного применения закона показывают несколько тенденций. Во-первых, рынок AI-комплаенса растёт взрывными темпами. Стартапы вроде Credo AI, Holistic AI и европейского TrailBit привлекают финансирование для создания инструментов автоматизированной проверки AI-систем на соответствие EU AI Act. Во-вторых, крупные консалтинговые компании (McKinsey, Deloitte, PwC) создали специализированные практики по AI-регулированию — прибыльный побочный эффект для индустрии.

Во-третьих — и это, пожалуй, самое интересное — закон начинает влиять на архитектурные решения. Требование «explainability» (объяснимости) для систем высокого риска заставляет разработчиков встраивать механизмы интерпретации в модели на этапе проектирования, а не добавлять их постфактум. Это может замедлить вывод продуктов на рынок, но потенциально повышает качество и надёжность AI-систем.

Есть, однако, и критика. Во-первых, определение «системного риска» через порог вычислений (10^25 FLOP) уже устарело: более эффективные методы обучения (такие как у DeepSeek) позволяют создавать мощные модели с меньшим количеством вычислений, формально обходя порог. Во-вторых, малые и средние европейские AI-компании жалуются на непропорциональную регуляторную нагрузку: у стартапа из 20 человек нет ресурсов на полный комплаенс, который легко могут себе позволить Google или Microsoft.

Геополитический контекст тоже важен. Китай принял свои правила регулирования AI ещё раньше — в 2023-2024 годах — но они фокусируются на контроле контента и государственной безопасности, а не на правах пользователей. США при администрации Трампа отменили указ Байдена об AI и делают ставку на саморегулирование индустрии. ЕС выбрал третий путь — жёсткое, но предсказуемое регулирование. Какой подход даст лучшие результаты — мы узнаем в ближайшие 3-5 лет.

EU AI Act — это живой документ. Еврокомиссия уже работает над кодексами практики (codes of practice), которые конкретизируют общие требования закона для разных секторов. Первые кодексы — для здравоохранения и финансов — ожидаются к середине 2026 года. Они определят, как именно выглядит «достаточный человеческий надзор» или «адекватная оценка рисков» в конкретных ситуациях.

Как вы думаете, EU AI Act защитит европейских граждан или скорее лишит Европу шансов в глобальной AI-гонке?

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Похожие материалы

110 миллиардов за мечту: что стоит за рекордным раундом OpenAI

OpenAI привлекла крупнейший раунд в истории венчурного рынка — $110 млрд при оценке $730 млрд. Разбираемся, кто дал деньги, зачем столько и что это значит для индустрии.

·4 мин·Выбор редакции

GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro: кто лучший в 2026 году

Три флагмана, десятки бенчмарков, ноль однозначных ответов. Разбираемся, какая модель реально лидирует — и почему ответ зависит от задачи.

·5 мин·Выбор редакции

AI для программистов: Claude Code vs Cursor vs Copilot vs Devin

Четыре подхода к AI-ассистированному кодингу: от автокомплита до полностью автономного агента. Разбираемся, кто для чего.

·5 мин·Выбор редакции