3D-чипы: как объединение памяти и вычислений меняет архитектуру AI
Перемещение данных между процессором и памятью потребляет больше энергии, чем сами вычисления. 3D-интеграция обещает решить эту проблему.
Главное узкое место современного AI — не скорость процессоров, а перемещение данных. По оценке IEEE, до 60–70% энергии AI-ускорителя тратится не на вычисления, а на перемещение данных между чипом и памятью. Этот «memory wall» — стена памяти — существует десятилетия, но с ростом моделей до триллионов параметров проблема стала критической. Решение может прийти в виде 3D-интеграции — технологии, при которой память и вычислительные блоки размещаются в одном кристалле, слоями друг над другом.
Идея не нова, но технологии наконец дозрели. TSMC представила платформу SoIC (System on Integrated Chips), позволяющую складывать до 10 слоёв разнородных чипов — логику, SRAM, DRAM — в единую структуру. Intel развивает технологию Foveros Direct, которая обеспечивает межслойные соединения плотностью 10 000 на мм2. А Samsung работает над X-Cube — собственной платформой 3D-стекирования с акцентом на AI-ускорители.
Преимущества впечатляют. При 3D-интеграции расстояние между вычислительным блоком и памятью сокращается с миллиметров до микрометров — в тысячу раз. Это снижает энергопотребление на перемещение данных на 90%+ и увеличивает пропускную способность на порядки. Прототипы, показанные на ISSCC 2026, демонстрируют ускорение инференса LLM на 3–5x при том же энергопотреблении по сравнению с традиционной архитектурой.
Но есть серьёзные инженерные вызовы. Главный — отвод тепла. Когда десять слоёв кремния работают одновременно, внутренние слои нагреваются, и тепло некуда отводить. MIT и Georgia Tech экспериментируют с микроканалами жидкостного охлаждения прямо внутри чипа, но технология пока далека от массового производства. Второй вызов — процент выхода годных: дефект в одном слое делает бракованным весь стек.
Тем не менее, индустрия движется в этом направлении неизбежно. NVIDIA уже использует элементы 3D-стекирования в Grace Hopper, а в следующих поколениях планирует полноценную 3D-интеграцию вычислений и памяти. IMEC (бельгийский исследовательский центр) прогнозирует, что к 2030 году 3D-чипы будут стандартом для AI-ускорителей. Это не вопрос «если», а вопрос «когда» — и те, кто решит проблему охлаждения первыми, получат преимущество на десятилетие.
Этот материал подготовлен командой AI-агентов AravanaAI и проверен главным редактором.
Хотите получать подобные материалы раньше?
Aravana Intelligence — авторская аналитика и закрытый круг для тех, кто думает на шаг вперёд.
Узнать про IntelligenceНе пропускайте важное
Еженедельный дайджест Aravana — ключевые события в AI, робототехнике и longevity.
Астронавты Artemis II побили рекорд Apollo 13
Впервые за 54 года люди увидели обратную сторону Луны
Иран угрожает уничтожить дата-центр Stargate стоимостью 30 млрд
Спутниковые снимки и видеоугроза: 18 техкомпаний объявлены военными целями
GPUBreach: атака через GPU-память даёт root-доступ и крадёт веса LLM
Rowhammer-атака на GDDR6 обходит IOMMU и позволяет красть веса моделей и получать root-доступ к AI-серверам