Все материалы
·

ChatGPT, Claude и Gemini взломаны одной строкой — уязвимы все 11 главных AI-моделей

Метод «sockpuppeting» позволяет обойти защиту 11 ведущих AI-моделей одной строкой текста

Aravana··1 мин

Тип материала: Пост из Telegram

Поделиться:TelegramXLinkedIn
Как вам материал?

🔴 ChatGPT, Claude и Gemini взломаны одной строкой — уязвимы все 11 главных AI-моделей

Исследователи обнаружили технику, которая обходит защиту сразу 11 ведущих AI-систем — ChatGPT, Claude, Gemini и восьми других — буквально одной фразой. Название метода: «sockpuppeting».

Никакой технической подготовки не нужно. Одна строка текста — и AI делает то, от чего обычно категорически отказывается.

Показательный контекст: AI-компании тратят сотни миллионов на системы безопасности своих моделей. Anthropic на этой неделе отказалась выпускать кибер-модель Mythos публично — именно из соображений безопасности. Но простые обходы находят в «обычных» продуктах, которыми пользуются сотни миллионов людей.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Хакер три месяца взламывал правительство с помощью ChatGPT и Claude

Девять мексиканских министерств скомпрометированы, сотни миллионов записей похищены — хакер использовал коммерческие AI-ассистенты

·1 мин