Указ Трампа об AI: Америка выбирает свободу рынка вместо регулирования

11 декабря 2025 года Дональд Трамп подписал указ, отменяющий ограничения Байдена на AI и задающий новый курс: минимум правил, максимум инноваций. Анализируем последствия.

Aravana··3 мин

Ключевые выводы

  • Указ Трампа отменяет ключевые положения исполнительного приказа Байдена об AI (октябрь 2023), включая требования к отчётности для разработчиков крупных моделей.
  • Новый курс делает ставку на саморегулирование индустрии и конкуренцию с Китаем как главный приоритет AI-политики.
  • Разрыв между подходами США (дерегулирование) и ЕС (жёсткое регулирование) создаёт фрагментацию глобального AI-ландшафта.

11 декабря 2025 года президент Дональд Трамп подписал исполнительный указ, который фактически демонтировал систему регулирования AI, выстроенную предыдущей администрацией. Указ Байдена об AI (Executive Order 14110 от октября 2023 года) требовал от разработчиков моделей, обученных с использованием более 10^26 FLOP, предоставлять результаты red-teaming Министерству торговли и раскрывать информацию о мерах безопасности. Трамп отменил эти требования.

Контекст решения понятен через призму приоритетов администрации. Трамп неоднократно называл AI «полем битвы с Китаем» и критиковал любые ограничения, которые, по его мнению, замедляют американские компании в этой гонке. Исполнительный указ прямо ссылается на необходимость «обеспечить лидерство Америки в области искусственного интеллекта» и «устранить бюрократические барьеры, сдерживающие инновации».

Ключевые положения указа

Что конкретно изменилось? Во-первых, отменены требования к отчётности. Разработчики больше не обязаны уведомлять правительство об обучении крупных моделей и предоставлять результаты тестирования безопасности. Во-вторых, отменены стандарты NIST (Национального института стандартов и технологий) для AI, разработанные по указу Байдена. В-третьих, упразднён координационный орган при Белом доме, который отвечал за межведомственную AI-политику.

Вместо этого указ Трампа создаёт «Президентский совет по AI» с участием представителей индустрии — CEO крупнейших AI-компаний. Совет должен готовить рекомендации по «продвижению американского AI-лидерства». Критики указывают на очевидный конфликт интересов: людям, которых нужно регулировать, поручено определять правила регулирования.

Реакция Кремниевой долины предсказуемо разделилась. Марк Цукерберг (Meta), Илон Маск (xAI) и Ларри Эллисон (Oracle) публично поддержали указ. Цукерберг назвал его «возвращением к здравому смыслу». Сэм Альтман (OpenAI) занял более сдержанную позицию: поддержал снятие «избыточных» требований, но подчеркнул, что «определённый уровень надзора за самыми мощными системами необходим». Дарио Амодеи (Anthropic) был наиболее критичен среди крупных CEO, заявив, что «полное отсутствие рамок создаёт риски, которые мы пока плохо понимаем».

Реакция индустрии и критика

Академическое и экспертное сообщество в значительной степени раскритиковало указ. Более 200 исследователей AI подписали открытое письмо, предупреждая об «опасности безнадзорного развития систем, приближающихся к уровню AGI». Йошуа Бенжио, нобелевский лауреат и один из «отцов-основателей» глубокого обучения, назвал указ «безответственным». Стюарт Рассел, профессор Беркли и автор стандартного учебника по AI, высказался ещё жёстче: «Это как отменить правила дорожного движения, потому что они замедляют движение».

Геополитическая аргументация Трампа — «мы не можем позволить Китаю обогнать нас» — имеет реальное основание, но спорную логику. Китай действительно вкладывает огромные ресурсы в AI: по оценкам McKinsey, китайские инвестиции в AI достигли $20 млрд в 2025 году, а государственная программа «AI нового поколения» ставит цель мирового лидерства к 2030 году. Но Китай при этом регулирует AI — жёстко, хоть и с другим фокусом (контроль контента, а не безопасность). Дерегулирование в США не обязательно даёт конкурентное преимущество, если оно приводит к авариям или скандалам, подрывающим доверие к технологии.

Практические последствия указа уже проявляются. Несколько AI-стартапов, которые ранее откладывали запуск продуктов из-за неопределённости с требованиями Байдена, теперь ускорили вывод на рынок. Инвесторы отмечают рост количества сделок в AI-секторе в первом квартале 2026 года. С другой стороны, европейские клиенты американских AI-компаний выражают обеспокоенность: EU AI Act требует соблюдения определённых стандартов, и если американские компании их игнорируют на домашнем рынке, возникает вопрос о качестве их продуктов для Европы.

Глобальные последствия подхода США

Фрагментация глобального AI-регулирования — пожалуй, главный долгосрочный эффект. ЕС ввёл жёсткие правила (AI Act). США их отменяют. Китай регулирует по-своему. Великобритания выбрала «мягкий» подход через отраслевые регуляторы без единого закона. Япония делает ставку на добровольные кодексы поведения. Для глобальных AI-компаний это означает необходимость поддерживать разные версии продуктов для разных рынков — или выбирать, каким правилам следовать.

Есть и более тонкий эффект на рынок труда в области AI-безопасности. Указ Байдена стимулировал рост числа вакансий в области AI safety, compliance и governance. После указа Трампа несколько компаний сократили или заморозили эти команды. Это может показаться мелочью, но специалисты по безопасности AI — дефицитный ресурс, и их рассеивание замедлит развитие культуры безопасности в индустрии.

Стоит отметить, что исполнительный указ — это не закон. Следующий президент может отменить его так же легко, как Трамп отменил указ Байдена. Эта политическая волатильность сама по себе является проблемой: компании не могут строить долгосрочную стратегию на правилах, которые меняются каждые 4 года. Именно поэтому многие эксперты призывают к принятию полноценного закона об AI через Конгресс — но политическая поляризация делает это маловероятным в ближайшем будущем.

Вопрос, который остаётся открытым: может ли саморегулирование работать в индустрии, где ставки так высоки, а конкуренция так интенсивна, что любое замедление воспринимается как капитуляция?

Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.

Тип материала: Анализ

Поделиться:TelegramXLinkedIn
Как вам материал?

Читайте также

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

IBM: 64% CEO принимают стратегические решения на основе AI

Исследование IBM: 64% CEO глобальных компаний уже принимают стратегические решения на основе AI — не изучают, не тестируют, а принимают.

·1 мин

Китай: четыре открытые AI-модели за 12 дней дешевле Claude в 4 раза

DeepSeek V4 Pro, Kimi K2.6, GLM-5.1, MiniMax M2.7 — паритет с западным фронтиром в кодинге при стоимости в 4 раза ниже Claude Opus 4.7.

·1 мин

OpenAI заблокировал GPT-5.5-Cyber — как Anthropic с Mythos, которую сам критиковал

OpenAI ограничил GPT-5.5-Cyber — повторив подход Anthropic с Mythos, который сам публично критиковал.

·1 мин