AI服务器需求带动, HBM供应龙头SK海力士今年市场占有率可超过五成

AI服务器出货动能强劲带动HBM(high bandwidth memory)需求提升,TrendForce研究显示,2022年三大原厂HBM市场占有率分别为SK海力士(SK Hynix)50%、三星(Samsung)约40%、美光(Micron)约10%。

高端深度学习AI GPU规格也刺激HBM产品更新,下半年随NVIDIA H100与AMD MI300搭载,三大原厂规划对应规格HBM3量产,今年或有更多客户导入HBM3,SK海力士为唯一量产新时代HBM3产品的供应商,整体HBM市场占有率有望提升至53%,三星、 美光则陆续年底至明年初量产,HBM市场占有率分别为38%及9%。

预估2023年AI服务器出货量年增15.4%

NVIDIA定义的DL/ML型AI服务器平均每台均搭载4或8张高端显卡,搭配两颗主流型号x86服务器CPU,主要拉货力道来自美系云计算企业Google、AWS、Meta与微软。TrendForce统计,2022年高端搭载GPGPU的服务器出货量年增约9%,近80%出货量集中美中系统八大云计算企业。预期2023年,微软、Meta、百度与字节跳动相继推出基于生成式AI衍生产品服务而积极加单,今年AI服务器出货量年增率有望达15.4%,2023~2027年AI服务器出货量年复合增长率约12.2%。

AI服务器刺激服务器DRAM、SSD与HBM需求同步上升

TrendForce调查,AI服务器有望带动内存需求增长,现阶段而言,服务器DRAM普遍规格约500~600GB,AI服务器单条模块多采64~128GB,平均容量可达1.2~1.7TB。以企业级SSD来说,AI服务器追求速度更高,要求优先往DRAM或HBM满足,SSD容量提升呈非必要扩大容量态势,但传输接口会为了高速运算需求优先采用PCIe 5.0。相较一般服务器,AI服务器多增用GPGPU,因此以NVIDIA A100 80GB配备4或8张采计,HBM用量约320~640GB。未来AI模型逐渐复杂化趋势下,刺激更多内存用量,并同步带动服务器DRAM、SSD及HBM需求增长。

(首图来源:SK海力士)