NVIDIA выпустила Nemotron-Cascade 2: 30B параметров — результаты как у 120B+
NVIDIA открыла MoE-модель, которая с 30B параметрами обходит Qwen3.5-122B на математике, коде и агентных задачах
🔴 NVIDIA выпустила Nemotron-Cascade 2: 30B параметров — результаты как у 120B+
Вчера NVIDIA выпустила Nemotron-Cascade 2 — открытую MoE-модель с 30 млрд параметрами, которая на математике, коде и агентных задачах обходит Qwen3.5-122B — модель в четыре раза большую. Работает на 3B активных параметрах на токен. Второй open-weight LLM в истории, взявший золотой медальный уровень на IMO, IOI и ICPC.
Веса, данные, технический отчёт — открытые, на Hugging Face. Параллельно запущена Nemotron Coalition с ведущими AI-лабораториями.
NVIDIA не просто делает чипы. Теперь она открывает frontier-уровень для всех — с моделями, которые на порядок эффективнее по размеру.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
- Open source vs закрытые модели: DeepSeek меняет правила игры
Nemotron-Cascade 2 — открытая модель от NVIDIA. Она укрепляет тренд, который статья описывает: open source достигает frontier-уровня.
- Маленькие модели, большие возможности: революция SLM
Nemotron Cascade 2 — 30B модель, превосходящая 120B. Это прямой пример революции SLM, о которой статья рассказывает системно.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.