HBM成韩国出口王牌 芯片三巨头都得用

摘要:

AI这两年来成为市场热点,并且也成为大国竞争的关键技术之一,NVIDIA的GPU虽然更强大,但在存储芯片上也要依赖韩国厂商,因为HBM内存逐渐卡住AI脖子。HBM(High Bandwidth Memory)是一种高带宽内存标准,主要用于满足日益增长的计算需求。

相比传统内存,HBM可以提供更高的数据传输速率和更低的延迟。

在这个领域,率先量产的是SK海力士,美国也有美光公司开始量产,内存一哥三星反而是最慢的。

HBM最新标准已经到了HBM4,但市场上当前的主力还是HBM3E,堆栈层数正在从8层提升到12层,单颗容量轻松达到36GB,而SK海力士凭借技术优势可以做到16层堆栈,容量48GB,今年就能供货。

得益于市场优势,SK海力士HBM事业部高管崔俊龙Choi Joon-yong日前在采访中表示,来自终端用户对AI的需求非常庞大,而且非常稳固。

该公司也预测到2030年之前,HBM市场将以每年30%的增长率发展,市场规模将达到数百亿美元。

HBM内存也逐渐成为韩国芯片出口的王牌,去年对美国的芯片总出口为107亿美元,其中HBM就占了存储芯片的18%。

NVIDIA、AMD及Intel三家主要的AI芯片巨头当前及下一代的AI芯片也会进一步提升HBM显存的容量和速度,其中AMD明年的主力产品MI400将使用高达432GB的HBM4,带宽19.6TB/s,对比MI350系列的288GB HEM3E、8TB/s分别增加50%、145%,比竞争对手的产品也高出50%。

值得一提的是,HBM也成为国内AI芯片发展的关键限制因素之一,国内也有公司在自研HBM芯片,但技术水平落后SK海力士一两代,HBM3e、HBM4量产还要等几年时间。

不过华为即将在未来两天公布一项新技术,这项成果或能降低中国AI推理对HBM(高带宽内存)技术的依赖,提升国内AI大模型推理性能,完善中国AI推理生态的关键部分。

我们在FebBox(https://www.febbox.com/cnbeta) 开通了新的频道,更好阅读体验,更及时更新提醒,欢迎前来阅览和打赏。
查看评论
created by ceallan