Google поймал первый случай: AI написал код атаки, который реально сработал

Google Threat Intelligence задокументировал первый в истории случай, когда боевой код взлома написала языковая модель — и эксплойт сработал в реальной атаке.

Aravana··1 мин

🔴 Google поймал первый случай: AI написал код атаки, который реально сработал

Главная страшилка про AI-безопасность перестала быть теорией. Поисковый гигант задокументировал первый в истории случай, когда боевой код взлома писала не команда хакеров, а языковая модель — и она правда сработала на чужой инфраструктуре.

По данным Google Threat Intelligence, найден скрипт на языке Python, который обходил двухфакторную аутентификацию в популярном инструменте администрирования серверов с открытым кодом. Авторство AI выдают признаки в коде: выдуманные идентификаторы уязвимостей, учебные комментарии и шаблонное форматирование. Параллельно Google зафиксировал, что китайская группировка UNC2814 использовала Gemini для анализа дыр в прошивках, а северокорейская APT45 отправила тысячи запросов к той же модели для проверки готовых модулей атаки.

Граница между «AI-инструментом» и «AI-оружием» стёрлась окончательно. Если ваш бизнес держит критичные данные в облаке или зависит от библиотек с открытым кодом — модель угроз пора пересобирать. Атакующий больше не «опытный хакер из подвала», а злоумышленник средней квалификации, у которого в распоряжении языковая модель, умеющая писать рабочий код взлома под конкретную дыру за минуты.

Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.

#нейросети #агентыИИ #Gemini #Google #геополитика #безопасностьИИ #Китай #нацбезопасность #ИИ #технологии #AravanaAI

Тип материала: Пост из Telegram

Поделиться:TelegramXLinkedIn
Как вам материал?

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.