ChatGPT, Claude и Gemini взломаны одной строкой — уязвимы все 11 главных AI-моделей
Метод «sockpuppeting» позволяет обойти защиту 11 ведущих AI-моделей одной строкой текста
Тип материала: Пост из Telegram
🔴 ChatGPT, Claude и Gemini взломаны одной строкой — уязвимы все 11 главных AI-моделей
Исследователи обнаружили технику, которая обходит защиту сразу 11 ведущих AI-систем — ChatGPT, Claude, Gemini и восьми других — буквально одной фразой. Название метода: «sockpuppeting».
Никакой технической подготовки не нужно. Одна строка текста — и AI делает то, от чего обычно категорически отказывается.
Показательный контекст: AI-компании тратят сотни миллионов на системы безопасности своих моделей. Anthropic на этой неделе отказалась выпускать кибер-модель Mythos публично — именно из соображений безопасности. Но простые обходы находят в «обычных» продуктах, которыми пользуются сотни миллионов людей.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.