Google поймал первый случай: AI написал код атаки, который реально сработал
Google Threat Intelligence задокументировал первый в истории случай, когда боевой код взлома написала языковая модель — и эксплойт сработал в реальной атаке.
🔴 Google поймал первый случай: AI написал код атаки, который реально сработал
Главная страшилка про AI-безопасность перестала быть теорией. Поисковый гигант задокументировал первый в истории случай, когда боевой код взлома писала не команда хакеров, а языковая модель — и она правда сработала на чужой инфраструктуре.
По данным Google Threat Intelligence, найден скрипт на языке Python, который обходил двухфакторную аутентификацию в популярном инструменте администрирования серверов с открытым кодом. Авторство AI выдают признаки в коде: выдуманные идентификаторы уязвимостей, учебные комментарии и шаблонное форматирование. Параллельно Google зафиксировал, что китайская группировка UNC2814 использовала Gemini для анализа дыр в прошивках, а северокорейская APT45 отправила тысячи запросов к той же модели для проверки готовых модулей атаки.
Граница между «AI-инструментом» и «AI-оружием» стёрлась окончательно. Если ваш бизнес держит критичные данные в облаке или зависит от библиотек с открытым кодом — модель угроз пора пересобирать. Атакующий больше не «опытный хакер из подвала», а злоумышленник средней квалификации, у которого в распоряжении языковая модель, умеющая писать рабочий код взлома под конкретную дыру за минуты.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
#нейросети #агентыИИ #Gemini #Google #геополитика #безопасностьИИ #Китай #нацбезопасность #ИИ #технологии #AravanaAI
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.