ChatGPT爆红拉高HBM需求,给韩国内存厂业绩下滑中新希望

近期爆红的人工智能 (AI) 应用ChatGPT给了韩国内存供应商提供了新的业务机会。也就是ChatGTP通过超大型人工智能来学习大量的数据,并进一步回答相关问题。这其中,DRAM对数据的处理速度必需能更好、更快的应对ChatGTP服务,这使得韩国两大供应商三星与SK海力士能因此受益,稍稍帮助了不断下滑的业绩。

韩国媒体BusinessKorea报道,自2023年开年以来,韩国三星和SK海力士的高带宽内存 (HBM) 的订单一直在快速增加中。与其他DRAM相比,HBM能借由垂直连接多个DRAM来提高了数据处理的速度。而它们与处理器(CPU)和绘图芯片(GPU)的协同工作,可以极大化提高服务器的学习和运算性能。

迄今为止,尽管HBM具有出色的性能,但与一般DRAM相比,其市场上的应用仍比较少。原因在于HBM的平均售价至少是一般DRAM的三倍。另外,HBM需要复杂的生产流程和较为先进的技术。不过,在ChatGPT人工智能服务兴起之后,开始扭转了局面。

报道指出,全球最大的GPU公司英伟达 (Nvidia) 一直要求SK海力士提供最新的HBM3。而全球市场占有率第一的服务器处理器企业英特尔 (Intel) 也在努力销售搭载SK海力士HBM3的产品。一位市场人士表示,与最高性能的DRAM相比,近期HBM3规格的DRAM价格上涨了5倍。

另外,随着高性能内存市场有望快速增长,三星和SK海力士之间的产品开发竞争也正在升温。目前,HBM才从2022年开始积极的进入AI服务器市场其中,所以HBM市场仍处于初期发展阶段。不过,三星与SK海力士已经看准市场,正专注于借由新产品的发展来巩固客户订单。

现阶段,SK海力士在HBM处于领先地位。该公司于2013年与AMD合作开发了世界上第一个HBM之后,目前已陆续发布了4代HBM产品,并已获得60%~70%的市场占有率。至于在三星方面,2021年2月,三星电子与AMD合作开发了HBM-PIM,它将内存和AI处理器合而一。当在CPU和GPU上安装HBM-PIM时,可以显著提高服务器的运算速度。这方面的技术,SK海力士也于2022年2月推出了采用PIM技术的产品解决方案。

报道强调,专家预测中长期来说,HBM在AI专用产品的开发上,预计将给半导体产业带来巨大改变。韩国一位半导体产业的高层表示,内存厂商忙于制程技术微缩开发的时代已经过去,高效处理数据,甚至具备处理数据能力的内存的发展将变得非常重要,它将决定内存制造商的未来。

(首图来源:SK海力士)