Узкое место памяти: почему HBM4 — самый важный чип 2026 года
Память HBM4 решает критическое узкое место AI-вычислений. Почему от одного чипа памяти зависит будущее целой индустрии.
В дискуссиях об AI-чипах внимание обычно сосредоточено на вычислительных ускорителях: GPU NVIDIA, TPU Google, ASIC стартапов. Но в 2026 году самым дефицитным и стратегически важным компонентом стала память, а именно HBM (High Bandwidth Memory). Без нее самый мощный AI-процессор бесполезен, как двигатель болида Формулы-1 без топлива. HBM4, четвертое поколение высокопропускной памяти, обещает снять ключевое ограничение AI-вычислений.
Почему память так критична для AI? Современные языковые модели содержат сотни миллиардов параметров, которые должны храниться в памяти, доступной ускорителю с минимальной задержкой. GPT-4 класса модель требует более 500 ГБ памяти для inference. При генерации текста модель обращается к параметрам миллионы раз в секунду. Если память не может подавать данные достаточно быстро, вычислительные ядра простаивают. Этот «memory wall» является главным ограничением производительности AI-систем.
Технология вертикальной укладки HBM
HBM решает проблему через вертикальную укладку кристаллов памяти (3D stacking). Несколько слоев памяти DRAM соединяются через тысячи микроскопических проводников (TSV, through-silicon vias) и монтируются непосредственно на подложку процессора. Это обеспечивает пропускную способность, в 5-10 раз превышающую обычную DDR-память, при значительно более компактном форм-факторе.
HBM4, начало массового производства которого намечено на вторую половину 2026 года, предлагает существенный скачок характеристик. Пропускная способность на стек достигает 1.65 ТБ/с, вдвое больше, чем у HBM3E. Емкость одного стека увеличена до 48 ГБ благодаря использованию 16 слоев DRAM. Общая пропускная способность памяти в AI-ускорителе с 6 стеками HBM4 может превысить 10 ТБ/с.
Производители и дефицит на рынке
Производство HBM сконцентрировано в руках трех компаний: SK Hynix (около 50% рынка), Samsung (около 35%) и Micron (около 15%). SK Hynix, партнер NVIDIA с начала HBM-эры, лидирует в разработке HBM4. Акции SK Hynix выросли в 4 раза за последние два года, отражая стратегическую важность компании для AI-индустрии. Samsung, отстававшая с HBM3, агрессивно инвестирует в HBM4 для восстановления позиций.
На наш взгляд, дефицит HBM стал системной проблемой. В 2024-2025 годах объем производства HBM не успевал за спросом со стороны NVIDIA, AMD и других разработчиков AI-чипов. Время ожидания поставок достигало 12 месяцев. Это стало одним из главных факторов, ограничивающих доступность AI-ускорителей. Расширение производственных мощностей требует инвестиций в миллиарды долларов и занимает 2-3 года, что создает структурный дефицит.
Стоимость HBM составляет значительную часть цены AI-ускорителя. По оценкам аналитиков, HBM-память занимает 30-40% себестоимости GPU типа NVIDIA H100 или H200. С переходом на HBM4 доля памяти в стоимости чипа может вырасти еще больше. Это создает парадоксальную ситуацию: производители памяти извлекают непропорционально большую часть стоимости из AI-бума, хотя вниманием СМИ пользуются в основном NVIDIA и другие разработчики ускорителей.
Альтернативы и геополитика памяти
Альтернативные технологии памяти разрабатываются, но ни одна пока не готова заменить HBM. Processing-In-Memory (PIM) интегрирует вычислительные элементы непосредственно в чипы памяти, устраняя необходимость перемещения данных. CXL (Compute Express Link) позволяет объединять память нескольких серверов в общий пул. Новые типы энергонезависимой памяти (MRAM, ReRAM) обещают сочетать скорость DRAM с энергоэффективностью флеш-памяти. Но все эти технологии находятся на ранних стадиях.
Геополитика HBM добавляет неопределенности. SK Hynix и Samsung, южнокорейские компании, являются единственными значимыми производителями. Micron (США) наращивает мощности, но отстает технологически. Китай пытается развить собственное производство HBM, но санкции ограничивают доступ к передовому оборудованию. Зависимость мировой AI-индустрии от двух корейских компаний, это стратегический риск, сопоставимый с зависимостью от TSMC.
Для AI-индустрии HBM4 не просто компонент, а необходимое условие для дальнейшего масштабирования моделей. Без увеличения объема и пропускной способности памяти рост размеров моделей упрется в физический потолок. HBM4 расширяет этот потолок, но не устраняет фундаментальную проблему memory wall. Долгосрочное решение потребует архитектурных инноваций, выходящих за рамки простого увеличения количества слоев памяти.
Вывод: HBM4 является критическим компонентом AI-инфраструктуры 2026 года. Его доступность, стоимость и производительность напрямую определяют, какие модели можно будет обучать и развертывать, сколько это будет стоить и кто получит доступ к передовым AI-вычислениям первым. В мире, одержимом вычислительной мощностью GPU, стоит помнить: без памяти все эти терафлопсы бессмысленны.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
- AMD MI400: реальный вызов доминированию NVIDIA в GPU
AMD MI400 использует 192 ГБ HBM3E, и его успех напрямую зависит от доступности и пропускной способности памяти — узкое место HBM касается AMD ровно так же, как NVIDIA.
- Кастомный кремний: Google TPU v6, Amazon Trainium 3, Microsoft Maia 2
Дефицит HBM — один из главных стимулов для разработки кастомного кремния: Google и Amazon оптимизируют архитектуры памяти под свои нужды, чтобы обойти узкое место.
- NVIDIA Groq 3 LPU — первый не-GPU чип в экосистеме NVIDIA
Groq LPU принципиально отличается от GPU тем, что использует встроенный SRAM вместо HBM — это прямой архитектурный ответ на узкое место памяти.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.