NVIDIA выпустила одну модель, которая внутри одновременно три — 30B, 23B и 12B
NVIDIA Star Elastic: одно семейство reasoning-моделей в одном чекпоинте, экономия 360x на обучении и работа на consumer GPU.
🔴 NVIDIA выпустила одну модель, которая внутри одновременно три — 30B, 23B и 12B
NVIDIA показала Star Elastic — модель для рассуждений нового типа: один файл весов, из которого без дообучения можно вытащить версию на 30, 23 или 12 миллиардов параметров.
Раньше каждый размер модели тренировали отдельно — каждая версия требовала своих GPU-часов и денег. Star Elastic складывает все три внутрь одной — поменьше «прячутся» в большой и переиспользуют её самые важные веса. NVIDIA заявляет 360-кратную экономию токенов на тренировку по сравнению с обычным подходом. Версия на 23B обходит Qwen3-30B на тесте AIME-2025 — 85,63 против 80,00. Если запускать 23B для размышлений и 30B для финального ответа, точность растёт на 16 процентов, задержка падает почти вдвое. Сжатая в формат FP4 модель на 30B весит 18,7 ГБ — её 12B-версия запускается на потребительских видеокартах, где обычная просто не помещается.
Для российского предпринимателя это сигнал о том, куда идёт стоимость запуска AI-моделей. До сих пор выбор был жёстким: качество против цены. Теперь одна модель умеет подстраиваться под бюджет на лету — и это меняет экономику AI-сервисов. Те, кто запускают LLM локально или строят продукты с дорогими токенами, в ближайший год получат варианты дешевле и быстрее.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
#нейросети #LLM #модели #NVIDIA #GPU #чипы #H100 #агентыИИ #ИИ #технологии #AravanaAI
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.