AI芯片再进化:HBM基底芯片将直接集成GPU运算单元

  • AI芯片再进化:HBM基底芯片将直接集成GPU运算单元已关闭评论
  • A+
所属分类:智趣科技

【CNMO科技消息】CNMO观察到,全球科技巨头正推动在下一代高带宽内存(HBM)中直接集成图形处理器(GPU)核心,以突破AI计算性能与能效的瓶颈。这一技术动向也意味着存储器与系统半导体之间的界限正在被打破。

AI芯片再进化:HBM基底芯片将直接集成GPU运算单元
HBM

据业界多名知情人士透露,Meta与英伟达正探讨在HBM的基底芯片(Base Die)中嵌入GPU核心的方案,并已与SK海力士、三星电子就合作进行接触。该架构属于“定制化HBM”讨论的一部分,其核心是在HBM最下层的基底芯片中直接集成GPU运算单元。

HBM是通过多层DRAM堆叠而成的高性能内存,专为处理AI所需的大规模数据而设计。目前基底芯片负责HBM与外部之间的通信;而在预计明年量产的HBM4中,将进一步在基底芯片加入“控制器”,以提升内存控制能力与能效。此次提出的GPU核心集成,被视为比HBM4控制器更前沿的技术跃升。

AI芯片再进化:HBM基底芯片将直接集成GPU运算单元

GPU核心是能够独立执行计算的基本单元,核心数量越多,计算性能越强。把核心放入HBM,能够将原本集中于GPU的运算功能部分分散至内存侧,从而减少数据搬运延迟、降低主GPU的负担。业内专家指出,在AI运算中,速度与能效同等关键;缩短内存与运算单元之间的物理距离,可同步降低数据传输延迟与功耗。

然而,技术挑战也不容忽视。由于HBM基底芯片采用硅通孔(TSV)工艺,可供GPU核心使用的空间极为有限。此外,GPU核心的高功耗与发热量对供电与散热设计提出了严峻考验,散热控制可能成为瓶颈。

KAIST电气电子工程系教授金正浩强调,“为应对AI高端化,存储器与系统半导体之间的技术融合速度将越来越快”,并呼吁企业超越内存领域,向逻辑芯片生态扩展,以抢占下一代HBM市场先机。