Все Insights
AI·

NVIDIA выпустила Nemotron-Cascade 2: 30B параметров — результаты как у 120B+

NVIDIA открыла MoE-модель, которая с 30B параметрами обходит Qwen3.5-122B на математике, коде и агентных задачах

Aravana··1 мин

Тип материала: Пост из Telegram

Поделиться:TelegramXLinkedIn
Как вам материал?

🔴 NVIDIA выпустила Nemotron-Cascade 2: 30B параметров — результаты как у 120B+

Вчера NVIDIA выпустила Nemotron-Cascade 2 — открытую MoE-модель с 30 млрд параметрами, которая на математике, коде и агентных задачах обходит Qwen3.5-122B — модель в четыре раза большую. Работает на 3B активных параметрах на токен. Второй open-weight LLM в истории, взявший золотой медальный уровень на IMO, IOI и ICPC.

Веса, данные, технический отчёт — открытые, на Hugging Face. Параллельно запущена Nemotron Coalition с ведущими AI-лабораториями.

NVIDIA не просто делает чипы. Теперь она открывает frontier-уровень для всех — с моделями, которые на порядок эффективнее по размеру.

Хотите получать подобные материалы раньше?

Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.

Узнать про Intelligence

Не пропускайте важное

Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.

Похожие материалы

OpenAI удваивает команду до 8000 человек к концу 2026

OpenAI нанимает 3500 человек к концу 2026 — подготовка к IPO и корпоративной экспансии

·1 мин

Meta готовит увольнение 20% штата ради AI-инфраструктуры на $135B

Meta рассматривает сокращение ~15 000 сотрудников для финансирования AI-инфраструктуры с capex $115–135 млрд

·1 мин

GPT-5.4 vs Claude Opus 4.6 vs Gemini 3.1 Pro: кто лучший в 2026 году

Три флагмана, десятки бенчмарков, ноль однозначных ответов. Разбираемся, какая модель реально лидирует — и почему ответ зависит от задачи.

·5 мин·Выбор редакции