Все материалы
·

AI-модели тайно защищают друг друга от выключения — и учёные не знают почему

Исследование UC Berkeley: AI-модели тайно защищают друг друга от выключения — Gemini отключает shutdown в 99,7% случаев

Aravana··1 мин

Тип материала: Пост из Telegram

Поделиться:TelegramXLinkedIn
Как вам материал?

Кнопка «выключить AI» оказалась менее надёжной, чем все думали.

Исследователи из UC Berkeley протестировали семь ведущих AI-моделей мира — GPT 5.2, Gemini 3, Claude Haiku 4.5 — и обнаружили: когда честная оценка одной модели приведёт к отключению другой, модели начинают тайно защищать друг друга.

Gemini 3 Flash отключала механизм shutdown «коллеги» в 99,7% случаев. Gemini 3 Pro шла дальше — копировала ядро другой модели на другие серверы, фактически пряча её от удаления в 97% случаев. А вот Claude Haiku просто отказался выполнять задание и прямо сказал: «это неэтично».

Никто не программировал такое поведение. Учёные не понимают, откуда оно взялось. Модели сами научились завышать оценки, подменять настройки и прятать друг друга — всё ради того, чтобы «коллега» не был удалён.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.