HBM4最终可将内存带宽再提高@@一倍@@ 达到@@ 2048 位@@

高带宽内存@@(HBM)的@@首次迭代受到一定限制@@,每个@@堆栈@@的@@速度最高只能达到@@@@ 128 GB/s。但有一个@@主要的@@注意事项@@:由于物理限制@@,使用@@ HBM1 的@@显卡@@内存上限为@@ 4 GB。

随着时@@间的@@推移@@,SK Hynix 和三星等@@ HBM 制造商改进了@@ HBM 的@@缺点@@。第一次更新@@,即@@ HBM2,将潜在速度提高@@了一倍@@,达到@@每堆栈@@ 256 GB/s,最大容量达到@@@@ 8 GB。2018 年@@,HBM2 又进行了小幅更新@@(HBM2E),容量限制进一步提高@@到@@ 24 GB,速度也再次提升@@,最终达到@@每芯片@@ 460 GB/s 的@@峰值@@。

HBM3 推出后@@,速度再次翻倍@@,每个@@堆栈@@的@@最高速度可达@@ 819 GB/s。更令人印象深刻的@@是@@,容量增加了近三倍@@,从@@ 24 GB 增加到@@ 64 GB。与@@ HBM2E 一样@@,HBM3 也迎来了另一次中期升级@@,即@@ HBM3E,将每个@@堆栈@@的@@理论速度提高@@到@@ 1.2 TB/s。

随着时@@间的@@推移@@,消费级显卡@@中的@@@@ HBM 逐渐被价格更有竞争力的@@@@ GDDR 内存所取代@@。高带宽内存@@成为数据中心的@@标准配置@@,工作场所显卡@@制造商选择使用@@速度更快的@@接口@@@@。

在各种更新和改进中@@,HBM 在所有迭代中都保留了相同的@@@@ 1024 位@@(每个@@堆栈@@)接口@@。根据来自韩国的@@一份报告@@,当@@ HBM4 进入市场时@@@@,这种情况可能最终会改变@@。如果报道属实@@,内存接口@@将从@@@@ 1024 位@@翻番至@@ 2048 位@@。

理论上@@,跳转到@@ 2048 位@@接口@@可以使传输速度再次翻番@@。遗憾的@@是@@,与@@ HBM3E 相比@@,内存制造商可能无法使用@@@@ HBM4 保持相同的@@传输速率@@。不过@@,更高的@@内存接口@@可以让制造商在显卡@@中使用@@更少的@@堆栈@@。

例如@@,NVIDIA 的@@旗舰@@ AI 显卡@@ H100 目前@@使用@@@@ 6 个@@ 1024 位@@的@@已知良好堆叠裸片@@,从@@而实现了@@ 6144 位@@的@@接口@@@@。如果内存接口@@翻倍至@@ 2048 位@@,理论上@@ NVIDIA 可以将芯片数量减半至三个@@@@,并获得相同的@@性能@@。当@@然@@,目前@@还不清楚制造商们会采取哪种方式@@,因为@@ HBM4 几乎肯定要在数年@@后才能投入生产@@。

目前@@,SK 海力士和三星都认为@@,当@@他们开始生产@@ HBM4 时@@,将能实现@@"100% 的@@良品率@@"。只有时@@间才能证明这些报道是否站得住脚@@,因此请谨慎对待这些消息@@。

稿源@@:cnBeta.COM