NVIDIA выпустила Nemotron-Cascade 2: 30B параметров — результаты как у 120B+

NVIDIA открыла MoE-модель, которая с 30B параметрами обходит Qwen3.5-122B на математике, коде и агентных задачах

Aravana··1 мин

🔴 NVIDIA выпустила Nemotron-Cascade 2: 30B параметров — результаты как у 120B+

Вчера NVIDIA выпустила Nemotron-Cascade 2 — открытую MoE-модель с 30 млрд параметрами, которая на математике, коде и агентных задачах обходит Qwen3.5-122B — модель в четыре раза большую. Работает на 3B активных параметрах на токен. Второй open-weight LLM в истории, взявший золотой медальный уровень на IMO, IOI и ICPC.

Веса, данные, технический отчёт — открытые, на Hugging Face. Параллельно запущена Nemotron Coalition с ведущими AI-лабораториями.

NVIDIA не просто делает чипы. Теперь она открывает frontier-уровень для всех — с моделями, которые на порядок эффективнее по размеру.

Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.

Тип материала: Пост из Telegram

Поделиться:TelegramXLinkedIn
Как вам материал?

Читайте также

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

Mistral открыла свою флагманскую модель — Medium 3.5 в открытом доступе обгоняет Qwen 3.5

Mistral выпустила открытую AI-модель Medium 3.5 на 128 миллиардов параметров, обогнавшую Qwen 3.5 и Devstral 2 в программировании.

·1 мин

Китай: четыре открытые AI-модели за 12 дней дешевле Claude в 4 раза

DeepSeek V4 Pro, Kimi K2.6, GLM-5.1, MiniMax M2.7 — паритет с западным фронтиром в кодинге при стоимости в 4 раза ниже Claude Opus 4.7.

·1 мин

OpenAI заблокировал GPT-5.5-Cyber — как Anthropic с Mythos, которую сам критиковал

OpenAI ограничил GPT-5.5-Cyber — повторив подход Anthropic с Mythos, который сам публично критиковал.

·1 мин