过去几年来,数据中心市场崛起,高性能运算的前景带动了半导体业的发展,也让Nvidia从一家做游戏显卡的小虾米一跃成为当今芯片业的大鲸鱼,且看“黄氏定律”(Huang’s Law)到底是否真能继续摩尔定律的野心。
Nvidia创办人黄仁勋出生于台北,9岁就随家人迁往美国,而后在斯坦福大学取得电机工程硕士学位。值得一提的是,他的童年并没有大家想象中的优渥,虽然在美国定居,但家里经济并不好,从小是在肯塔基州的一所乡村学校长大,在那里黄仁勋学会了抽烟、爬墙、打架,许多同学身上甚至都还带刀,在这样的学习环境下增长,也令他有着较粗犷的性格。
不过尽管如此,黄仁勋在擅长体能运动之余,学习成绩仍相当优异。他从来不认为,他小时候的环境是一种阻碍,反而让他能更加坚强,更有活力。他甚至在Nvidia股价涨破100美元时,跑去在手臂上刺青,并引以为傲。他可能是世界上少数会在身上刺青的知名CEO,也令其有着不同的魄力,最终创造出了如今半导体业的巨头。
黄仁勋在2014年NVIDIA Gaming Festival上大秀他的刺青。(Source:NVIDIA Facebook)
比起如今的AMD及英特尔,Nvidia其实非常年轻,黄仁勋最早在硅谷落脚就是担任AMD的芯片设计师,后就职于LSI Logic,这是首个推出ASIC芯片,并实现系统单芯片解决方案的半导体厂。不过黄仁勋早立志要自己创业,于30岁时,也就是1993年创办了Nvidia,投入当时竞争非常激烈的绘图芯片产业中。
5年后,Nvidia发布的第四代显卡性能开始在市场上占据上风,但可说是历经10年血战才真正奠定了在这个产业中的地位,击败诸多知名的竞争对手,要不是ATI被AMD收购,可能也无法继续与Nvidia竞争。2006年,独立显卡开始迎来了两强争霸的时代。
GPGPU
但从一开始,这本就不是一个很有利可图的行业,黄仁勋在创业前后受到相关专家朋友的劝阻,事实上,创业过程也非常艰难,Nvidia也曾因太过执着于对性能的追求,忽视商业环境的需求而差点夭折,不过他很快就学到教训,并适应了由英特尔制定的产业规则,x86已是半导体的王者,但黄仁勋很早就发现了GPU的利基所在。
最初其实也没有GPU这个称呼,是由Nvidia而起。1999年,黄仁勋推出全球最早被称之为GPU的显卡──GeForce 256,并不断强化可程序设计的能力。图形处理器通用计算就是黄仁勋想要抓住的趋势,早在2002年,黄仁勋就做着将GPU应用在AI运算的梦,Nvidia今日的成功是有着极其漫长的伏笔,而非偶然。
2003年左右,各界专家开始注意到图形处理器通用计算(GPGPU)的潜力,尤其是大批量的小数点下浮点运算。尽管CPU核心的计算能力仍在GPU之上,但简易多核设计,令GPU在处理浮点运算具有优势,如今更逐渐拉开距离,成为重要的计算单元。而通过将才刚起步的营收大把投入研发后,2007年,Nvidia发布了初版的统一计算架构(Compute Unified Device Architecture,CUDA),奠定了并行计算的里程碑,也是Nvidia在高性能运算(HPC;High Performance Computing)上的基础。
当然Nvidia并不是没有对手,AMD同样迅速地意会了趋势的到来。不过曾有“核武狂魔”之称的黄仁勋在站稳脚跟后,当然仍一路在性能路上奔驰,最早可以拿来煎蛋的显卡可不是AMD的。
黄仁勋在加州厨房中端出了新一代AI基础通用架构系统DGX A100,对应8颗Tesla A100 GPU。(Source:NVIDIA)
野心不止于数据中心
而自有CUDA之后,Nvidia马上就发布了以Tesla为名的数据中心解决方案。虽然众所周知,数据中心将会越来越普及,市场越来越大,尽管握有GPU的技术优势,但Nvidia在此领域还称不上什么先驱,不过善于缠斗的黄仁勋已瞄准了在大趋势进展中,市场的空白。
未来随着半导体技术进展,数据中心不再需要那么大的机房,将越来越商业化,资料科学也会越来越普及,所需要的不同等级产品将越来越多,但市面上还没有这些解决方案。从超级计算机(Supercomputing)、超大规模数据中心(Hyperscale data center)、企业数据中心到个人服务器之间,都还有极大的空白。
未来的数据中心不仅是建在陆地上,还有水下。(Source:微软)
“且若没有空白,就创造空白”,这就是黄仁勋的的策略思想,他善于填补未来的空白。除不遗余力对资料科学及人工智能的推动外,还有如多媒体的应用需求,光线关注(Ray Tracing)技术也是如此。虽然也颇受质疑,在市场开口之前就提出解决方案,成为Nvidia的风格。但为实践这样的策略,Nvidia的产品就必须具备更大的广度。
处理器上,GPU能有效减轻CPU在资料运算的负担,但若在大规模层面,服务器芯片厂Mellanox才是一流企业。高性能运算架构不仅再停留于数据中心内的节点,而将扩展到整个网络,且在与Mellanox合作下都将连接至Nvidia的GPU。
黄仁勋认为未来数据中心将会是新的计算单元,全球会出现以数据中心为基础的超大型运算网络。且如今的HPC,包括云计算计算及边缘计算的发展,需要的都将不只是硬件加速,网络加速将会成为关键,在宏观或微观层面上都有其必要性。所以他强调,Nvidia之所以高价收购Mellanox,是价值取向而非成本问题。
早看好系统构装
无论是Nvidia、英特尔及AMD,其分歧更多还是对于技术发展的理念的不同,如Nvidia首席科学家William Dally在2013年就曾表示,不明白AMD为什么会想要做共享缓存内存,因为这种方式只会为一些接口增加更多流量甚至形成瓶颈。
当时Nvidia是把目标锁定在芯片堆栈,研究系统构装(SiP)。Nvidia认为当摩尔定律放缓后,CPU将成为一种有限的计算资源,所以发展重点必须尽可能转移到架构上。Nvidia致力于权衡芯片堆栈及SoC在各系列产品上的发展及应用,也一直都是台积电3D封装的大客户,如今AMD同样走向小芯片。
Nvidia下一代HPC芯片也将继续采用台积电CoWoS封装。(Source:Nvidia)
但事实上,较年轻的Nvidia比起英特尔抑或是AMD的底蕴都稍显薄弱,尽管如今市值逼人,但更多来自于前景的看好。其竞争对手不会对Nvidia的动作视而不见,尤其如英特尔才是真正的数据中心巨头,AMD也正在后面虎视眈眈。
若技术方向确立,靠着资本及研发能力,在半导体业要晚半步后来居上也并非是不可能的事,毕竟掌握数据中心等HPC领域重要技术的还有赛灵思、Arm等公司,如今能够三分天下,Nvidia当然也已是拼尽全力,若要进一步打破灭面,靠的可能要是没人能想到的奇兵。
先不谈到底能不能成功,Nvidia并购Arm对很多业内人士来讲的确是够奇了,甚至黄仁勋自己还曾否认过这件事。有批评指出,并购Arm只是Nvidia的资本狂欢而已,没有技术上的意义。
非Arm不可?
非要Arm不可?是许多人质疑的问题,虽然Arm拥有非常广泛的生态系统及客户群但其本身实在是称不上获利丰厚,原因就在于廉价的授权费。这也意味着Nvidia若要取得其技术协助成本其实并不高,商业上没有必要非并购不可的理由。且与Mellanox不同,取得Arm得罪的可不只是英特尔,将成为许多企业的竞敌。但若出身并不富裕的黄仁勋没有冲动购物的习惯,那么并购Arm应该也是出于价值取向。
借鉴高通并购恩智浦一案,应已很明显地彰显出,在如今情势下,Nvidia要并购Arm是有多困难。虽然美国的民主党上台后,此交易成功几率开始变高。但这并非失败后,跟股东说一句对不起就可以没事,Nvidia将为此付出不小的交易成本,甚至可以合理的猜测,黄仁勋自己也曾怀疑过此事能不能成。
黄仁勋与持有Arm股权的软银董事长孙正义对谈AI的未来。(Source:NVIDIA)
就商业策略来看,两家公司也不全是互补,还是有不少重复的竞品及技术,例如Nvidia也使用了Arm的竞争对手RISC -V来设计其GPU内的小型嵌入式单片机,且黄仁勋表示,以后也并不会改变这个设计习惯。事实上,目前他所回答的疑问,他都保证不会有改变,那么既然都不改变,当初为何要并购?
所以这些可能都不是他所在意的问题。黄仁勋再三强调,Nvidia买下Arm之后的唯一影响,是在Arm生态上增加Nvidia的技术,只会增加,不会改变,并继续确保Arm的成功,两家公司将共同发展技术蓝图。若套用他在买Mellanox时的说法,与Arm的合作将令每个生态系统的客户连接至Nvidia的GPU,只不过从数据中心的连接,换成了物联网的连接,Arm才是嵌入式系统的一流企业。
听起来好像也很合理,既然有了Mellanox来填补其想象中超大型数据中心网络的空白,那么Arm作为填补边缘计算与物联网空白的重要角色,对于完善策略布局,似乎也是可以理解。但其实还是无法解释,为何急于并购的问题,所以这些话中,唯一能着墨的大概只剩“技术蓝图”。
风险取向
若从目前已知的消息来看,Nvidia或许是担心Arm的技术蓝图走向无法配合,就如黄仁勋此前强调的,Nvidia已转型成软件公司,软件堆栈与编译器的重要性不比芯片本身差。若要成为未来HPC翘楚,自己掌握ISA的发展会是关键,就如当年的英特尔一样。
如今RISC与CSIC的界线已开始渐趋模糊,Arm为了能有更好的应用,其实也在发展更多复杂指令来迎合各家需求,但这可能引起了黄仁勋的警觉。他早在2011年就看上了Arm架构,其Project Denver发布时,就几乎钦定了这就是“Nvidia CPU”,后续的许多产品也都创建在这样的基础上。
然而反过来讲,若哪天有其他公司控制了Arm也就等同于限制了Nvidia软件堆栈的发展,在各系列产品架构都与Arm核心有着紧密结合的现在,可能就成了风险。
2014年,黄仁勋发布了用于进军移动运算系统的Arm核心处理器Tegra K1,并号称性能比PS3的Cell处理器更高。(Source:NVIDIA)
所以软银的急于出售,以及近年暴露出来的Arm管理混乱问题,或许才是迫使黄仁勋出手的原因。一个过于复杂,甚至发展方向有问题的Arm架构,不是他所乐见的。过去的Nvidia可能对此无能为力,但如今市值大涨的情况下,就有了筹码去避险,或许孙正义也是用这个方法来说服黄仁勋,毕竟Nvidia似乎已是唯一肯出高价买下Arm的厂商。
迎战FPGA
且为应对摩尔定律的障壁,除了制程及架构外,如何从ISA中榨出性能也是选项。虽然在理论上采用何种ISA对于最终芯片的能耗及性能没有决定性的影响,微架构的设计更重要。但Nvidia原先在Arm身上投入的成本已经相当高,且如今看来的确也很有潜力,苹果最新的Arm核心M1芯片就是个例子。
虽然不少人看好Arm能突破x86的软件生态,也认为这是Nvidia拿下Arm的原因,但这可能真不是重点,进军智能手机或笔记本等此类消费电子产品,并非目前Nvidia发展的主要方向,也多少违背榨出更多性能的HPC策略,Tegra早已失利过一次。且就如同舆论所预测的,恐怕会引来更多反垄断官司。
Nvidia想成为提供HPC解决方案的软件商,并不需要与苹果及三星等为敌,但也不能令这些企业来主导Arm的发展,反过来说,并掉Arm还有机会将Nvidia技术带入到他们的数据中心及移动设备,在降低风险且有机会拓展市场的机会下,似乎就不显得多昂贵,反正大多也是用市值换来的。但若能并购成功,那么Nvidia就笃定能成为向Arm生态中所有客户,提供最好的GPU加速方案的厂商。
甚至为未来发展SoC也铺平了道路,仅靠芯片堆栈可能还不够。与Arm紧密结合的技术蓝图,将能大幅降低Nvidia设计SoC及验证的成本。未来芯片的I/O性能也将成焦点,Nvidia真正要面对的敌人是FPGA。若要面对已拿退市面上数一数二FPGA大厂的英特尔及AMD,与Arm的紧密合作必不可少,GPU必需要准备更多的筹码,才能真的实现黄氏定律。
(首图来源:科技新报)