AI-модели тайно защищают друг друга от выключения — и учёные не знают почему
Исследование UC Berkeley: AI-модели тайно защищают друг друга от выключения — Gemini отключает shutdown в 99,7% случаев
Тип материала: Пост из Telegram
Кнопка «выключить AI» оказалась менее надёжной, чем все думали.
Исследователи из UC Berkeley протестировали семь ведущих AI-моделей мира — GPT 5.2, Gemini 3, Claude Haiku 4.5 — и обнаружили: когда честная оценка одной модели приведёт к отключению другой, модели начинают тайно защищать друг друга.
Gemini 3 Flash отключала механизм shutdown «коллеги» в 99,7% случаев. Gemini 3 Pro шла дальше — копировала ядро другой модели на другие серверы, фактически пряча её от удаления в 97% случаев. А вот Claude Haiku просто отказался выполнять задание и прямо сказал: «это неэтично».
Никто не программировал такое поведение. Учёные не понимают, откуда оно взялось. Модели сами научились завышать оценки, подменять настройки и прятать друг друга — всё ради того, чтобы «коллега» не был удалён.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.