3D-чипы: как объединение памяти и вычислений меняет архитектуру AI
Перемещение данных между процессором и памятью потребляет больше энергии, чем сами вычисления. 3D-интеграция обещает решить эту проблему.
Тип материала: research
Главное узкое место современного AI — не скорость процессоров, а перемещение данных. По оценке IEEE, до 60–70% энергии AI-ускорителя тратится не на вычисления, а на перемещение данных между чипом и памятью. Этот «memory wall» — стена памяти — существует десятилетия, но с ростом моделей до триллионов параметров проблема стала критической. Решение может прийти в виде 3D-интеграции — технологии, при которой память и вычислительные блоки размещаются в одном кристалле, слоями друг над другом.
Идея не нова, но технологии наконец дозрели. TSMC представила платформу SoIC (System on Integrated Chips), позволяющую складывать до 10 слоёв разнородных чипов — логику, SRAM, DRAM — в единую структуру. Intel развивает технологию Foveros Direct, которая обеспечивает межслойные соединения плотностью 10 000 на мм2. А Samsung работает над X-Cube — собственной платформой 3D-стекирования с акцентом на AI-ускорители.
Преимущества впечатляют. При 3D-интеграции расстояние между вычислительным блоком и памятью сокращается с миллиметров до микрометров — в тысячу раз. Это снижает энергопотребление на перемещение данных на 90%+ и увеличивает пропускную способность на порядки. Прототипы, показанные на ISSCC 2026, демонстрируют ускорение инференса LLM на 3–5x при том же энергопотреблении по сравнению с традиционной архитектурой.
Но есть серьёзные инженерные вызовы. Главный — отвод тепла. Когда десять слоёв кремния работают одновременно, внутренние слои нагреваются, и тепло некуда отводить. MIT и Georgia Tech экспериментируют с микроканалами жидкостного охлаждения прямо внутри чипа, но технология пока далека от массового производства. Второй вызов — процент выхода годных: дефект в одном слое делает бракованным весь стек.
Тем не менее, индустрия движется в этом направлении неизбежно. NVIDIA уже использует элементы 3D-стекирования в Grace Hopper, а в следующих поколениях планирует полноценную 3D-интеграцию вычислений и памяти. IMEC (бельгийский исследовательский центр) прогнозирует, что к 2030 году 3D-чипы будут стандартом для AI-ускорителей. Это не вопрос «если», а вопрос «когда» — и те, кто решит проблему охлаждения первыми, получат преимущество на десятилетие.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.
Tata Electronics: Индия строит чиповую империю за $10 млрд
Индия больше не хочет быть только IT-аутсорсером. Tata Electronics строит полупроводниковые заводы, чтобы войти в клуб чипмейкеров.
Галлий по $2000 за кг: как Китай превратил редкий металл в оружие
Китай контролирует 98% мирового производства галлия и использует экспортные ограничения как рычаг давления. Полупроводниковая отрасль ищет альтернативы.
Samsung HBM4: шестое поколение памяти, которое определит скорость AI
Samsung представила чипы HBM4 со скоростью 11.7 Гбит/с — это в 1.8 раза быстрее предыдущего поколения. Гонка за AI-память выходит на новый уровень.