NVIDIA Groq 3 LPU — первый не-GPU чип в экосистеме NVIDIA
NVIDIA Groq 3 LPU — первый не-GPU чип в экосистеме NVIDIA
🔴 NVIDIA показала Groq 3 LPU — первый не-GPU чип в своей экосистеме
На GTC 2026 Jensen Huang представил то, чего раньше в NVIDIA не было — inference-чип, построенный не на GPU-архитектуре. Groq 3 LPU — результат сделки NVIDIA и Groq на $20 млрд. Вместо HBM-памяти чип использует 512 MB встроенного SRAM с пропускной способностью 150 TB/s — это в 7 раз быстрее, чем у Rubin GPU.
Полная стойка Groq 3 LPX вмещает 256 таких чипов: 128 GB SRAM, 40 PB/s совокупной bandwidth. Samsung 4nm процесс, отгрузка — Q3 2026.
NVIDIA фактически поглотила своего конкурента и сделала его частью платформы Vera Rubin. Inference теперь — не побочный продукт, а отдельный чиповый стек.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
- AI inference vs training: экономика вычислений меняется
NVIDIA купила Groq именно потому что inference-нагрузки растут быстрее training — LPU оптимизирован под инференс, что отражает описанный в статье экономический сдвиг.
- Волна IPO AI-чипов: Cerebras, Groq и SambaNova выходят на биржу
Groq, которую рассматривали как кандидата на IPO, в итоге была куплена NVIDIA и интегрирована как LPU — статья показывает, как изменилась судьба стартапа.
- Узкое место памяти: почему HBM4 — самый важный чип 2026 года
Groq LPU принципиально отличается от GPU тем, что использует встроенный SRAM вместо HBM — это прямой ответ на узкое место памяти, описанное в статье.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.