AI服务器@@需求@@带动@@, HBM供应龙头@@SK海力士@@今年@@市占率将逾五成@@

AI服务器@@出货动能强劲带动@@HBM(high bandwidth memory)需求@@提升@@,据@@TrendForce集邦@@咨询研究显示@@,2022年@@三大原厂@@HBM市占率分别为@@SK海力士@@(SK hynix)50%、三星@@(Samsung)约@@40%、美光@@(Micron)约@@10%。此外@@,高阶深度学习@@AI GPU的规格也刺激@@HBM产品更迭@@,2023下半年@@伴随@@NVIDIA H100与@@AMD MI300的搭载@@,三大原厂也已规划相对应规格@@HBM3的量产@@。因此@@,在@@今年@@将有更多客户导入@@HBM3的预期下@@,SK海力士@@作为目前@@唯一量产新世代@@HBM3产品的供应商@@,其整体@@HBM市占率可望藉此提升至@@53%,而@@三星@@@@、美光@@则预计陆续在@@今年@@底至明年@@初量产@@,HBM市占率分别为@@38%及@@9%。

预估@@2023年@@AI服务器@@出货量年@@增@@15.4%

目前@@NVIDIA所定义的@@DL/ ML型@@AI服务器@@平均每台均搭载@@4张或@@@@8张高端显卡@@,搭配两颗主流型@@号的@@x86 服务器@@CPU,而@@主要拉货力道来自于美系云端业者@@Google、AWS、Meta与@@Microsoft。据@@TrendForce集邦@@咨询统计@@,2022年@@高端搭载@@GPGPU的服务器@@出货量年@@增@@约@@@@9%,其中近@@80%的出货量均集中在@@中@@、美系八大云端业者@@。展望@@2023年@@,Microsoft、Meta、Baidu与@@ByteDance相继推出基于生成式@@AI衍生的产品服务而@@积极加单@@,预估@@今年@@@@AI服务器@@出货量年@@增@@率可望达@@15.4%,2023~2027年@@AI 服务器@@出货量年@@复合成长率约@@@@12.2%。

AI服务器@@刺激@@Server DRAM、SSD与@@HBM需求@@同步上升@@

根据@@@@TrendForce集邦@@咨询调查@@,AI服务器@@可望带动存储器需求@@成长@@,以@@现阶段而@@言@@@@, Server DRAM普遍配置@@约@@为@@500~600GB左右@@,而@@AI服务器@@在@@单条模组上则多采@@64~128GB,平均容量可达@@1.2~1.7TB之间@@。以@@Enterprise SSD而@@言@@,由于@@AI服务器@@追求的速度更高@@,其要求优先满足@@DRAM或@@HBM需求@@,在@@SSD的容量提升上则呈现非必要扩大容量的态势@@,但在@@传输接口上@@,则会为了高速运算的需求@@而@@优先采用@@PCIe 5.0。而@@相较于一般服务器@@而@@言@@@@,AI服务器@@多增加@@GPGPU的使用@@,因此@@以@@@@NVIDIA A100 80GB配置@@4或@@8张计算@@,HBM用量约@@为@@320~640GB。未来在@@@@AI模型@@逐渐复杂化的趋势下@@,将刺激更多的存储器用量@@,并同步带动@@Server DRAM、SSD以@@及@@@@HBM的需求@@成长@@。

文章来源@@:TrendForce集邦@@