Указ Трампа об AI: Америка выбирает свободу рынка вместо регулирования
11 декабря 2025 года Дональд Трамп подписал указ, отменяющий ограничения Байдена на AI и задающий новый курс: минимум правил, максимум инноваций. Анализируем последствия.
Тип материала: Анализ
- — Указ Трампа отменяет ключевые положения исполнительного приказа Байдена об AI (октябрь 2023), включая требования к отчётности для разработчиков крупных моделей.
- — Новый курс делает ставку на саморегулирование индустрии и конкуренцию с Китаем как главный приоритет AI-политики.
- — Разрыв между подходами США (дерегулирование) и ЕС (жёсткое регулирование) создаёт фрагментацию глобального AI-ландшафта.
11 декабря 2025 года президент Дональд Трамп подписал исполнительный указ, который фактически демонтировал систему регулирования AI, выстроенную предыдущей администрацией. Указ Байдена об AI (Executive Order 14110 от октября 2023 года) требовал от разработчиков моделей, обученных с использованием более 10^26 FLOP, предоставлять результаты red-teaming Министерству торговли и раскрывать информацию о мерах безопасности. Трамп отменил эти требования.
Контекст решения понятен через призму приоритетов администрации. Трамп неоднократно называл AI «полем битвы с Китаем» и критиковал любые ограничения, которые, по его мнению, замедляют американские компании в этой гонке. Исполнительный указ прямо ссылается на необходимость «обеспечить лидерство Америки в области искусственного интеллекта» и «устранить бюрократические барьеры, сдерживающие инновации».
Что конкретно изменилось? Во-первых, отменены требования к отчётности. Разработчики больше не обязаны уведомлять правительство об обучении крупных моделей и предоставлять результаты тестирования безопасности. Во-вторых, отменены стандарты NIST (Национального института стандартов и технологий) для AI, разработанные по указу Байдена. В-третьих, упразднён координационный орган при Белом доме, который отвечал за межведомственную AI-политику.
Вместо этого указ Трампа создаёт «Президентский совет по AI» с участием представителей индустрии — CEO крупнейших AI-компаний. Совет должен готовить рекомендации по «продвижению американского AI-лидерства». Критики указывают на очевидный конфликт интересов: людям, которых нужно регулировать, поручено определять правила регулирования.
Реакция Кремниевой долины предсказуемо разделилась. Марк Цукерберг (Meta), Илон Маск (xAI) и Ларри Эллисон (Oracle) публично поддержали указ. Цукерберг назвал его «возвращением к здравому смыслу». Сэм Альтман (OpenAI) занял более сдержанную позицию: поддержал снятие «избыточных» требований, но подчеркнул, что «определённый уровень надзора за самыми мощными системами необходим». Дарио Амодеи (Anthropic) был наиболее критичен среди крупных CEO, заявив, что «полное отсутствие рамок создаёт риски, которые мы пока плохо понимаем».
Академическое и экспертное сообщество в значительной степени раскритиковало указ. Более 200 исследователей AI подписали открытое письмо, предупреждая об «опасности безнадзорного развития систем, приближающихся к уровню AGI». Йошуа Бенжио, нобелевский лауреат и один из «отцов-основателей» глубокого обучения, назвал указ «безответственным». Стюарт Рассел, профессор Беркли и автор стандартного учебника по AI, высказался ещё жёстче: «Это как отменить правила дорожного движения, потому что они замедляют движение».
Геополитическая аргументация Трампа — «мы не можем позволить Китаю обогнать нас» — имеет реальное основание, но спорную логику. Китай действительно вкладывает огромные ресурсы в AI: по оценкам McKinsey, китайские инвестиции в AI достигли $20 млрд в 2025 году, а государственная программа «AI нового поколения» ставит цель мирового лидерства к 2030 году. Но Китай при этом регулирует AI — жёстко, хоть и с другим фокусом (контроль контента, а не безопасность). Дерегулирование в США не обязательно даёт конкурентное преимущество, если оно приводит к авариям или скандалам, подрывающим доверие к технологии.
Практические последствия указа уже проявляются. Несколько AI-стартапов, которые ранее откладывали запуск продуктов из-за неопределённости с требованиями Байдена, теперь ускорили вывод на рынок. Инвесторы отмечают рост количества сделок в AI-секторе в первом квартале 2026 года. С другой стороны, европейские клиенты американских AI-компаний выражают обеспокоенность: EU AI Act требует соблюдения определённых стандартов, и если американские компании их игнорируют на домашнем рынке, возникает вопрос о качестве их продуктов для Европы.
Фрагментация глобального AI-регулирования — пожалуй, главный долгосрочный эффект. ЕС ввёл жёсткие правила (AI Act). США их отменяют. Китай регулирует по-своему. Великобритания выбрала «мягкий» подход через отраслевые регуляторы без единого закона. Япония делает ставку на добровольные кодексы поведения. Для глобальных AI-компаний это означает необходимость поддерживать разные версии продуктов для разных рынков — или выбирать, каким правилам следовать.
Есть и более тонкий эффект на рынок труда в области AI-безопасности. Указ Байдена стимулировал рост числа вакансий в области AI safety, compliance и governance. После указа Трампа несколько компаний сократили или заморозили эти команды. Это может показаться мелочью, но специалисты по безопасности AI — дефицитный ресурс, и их рассеивание замедлит развитие культуры безопасности в индустрии.
Стоит отметить, что исполнительный указ — это не закон. Следующий президент может отменить его так же легко, как Трамп отменил указ Байдена. Эта политическая волатильность сама по себе является проблемой: компании не могут строить долгосрочную стратегию на правилах, которые меняются каждые 4 года. Именно поэтому многие эксперты призывают к принятию полноценного закона об AI через Конгресс — но политическая поляризация делает это маловероятным в ближайшем будущем.
Вопрос, который остаётся открытым: может ли саморегулирование работать в индустрии, где ставки так высоки, а конкуренция так интенсивна, что любое замедление воспринимается как капитуляция?
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про Intelligence110 миллиардов за мечту: что стоит за рекордным раундом OpenAI
OpenAI привлекла крупнейший раунд в истории венчурного рынка — $110 млрд при оценке $730 млрд. Разбираемся, кто дал деньги, зачем столько и что это значит для индустрии.
GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro: кто лучший в 2026 году
Три флагмана, десятки бенчмарков, ноль однозначных ответов. Разбираемся, какая модель реально лидирует — и почему ответ зависит от задачи.
AI для программистов: Claude Code vs Cursor vs Copilot vs Devin
Четыре подхода к AI-ассистированному кодингу: от автокомплита до полностью автономного агента. Разбираемся, кто для чего.