iPhone的芯片比一半硬币小,云计算服务器中的芯片比一角纸币小,但现在,一个比iPad还大的芯片制造出来了。
它也成了目前史上最大的计算机芯片。这个芯片名为Cerebras Wafer Scale Engine,由加利福尼亚一家名为Cerebras的创业公司制造,尺寸约为8英寸×8英寸。

我们先来看看它“惊人”的性能参数:
如果你对这些参数的程度不熟悉的话,要知道,上个月AMD发布的世界上功能最强大的Epyc芯片,也只拥有320亿个晶体管和64个内核。
比起世界上领先的图形处理单元,Cerebras Wafer Scale Engine的高速片上缓存大了3,000倍,内存带宽大了10,000倍,它比最大的Nvidia GPU芯片面积也大了56.7倍。

按理说,在半导体行业中,其实更大的不代表就是更好。但其创办人兼首席执行官安德鲁・费尔德曼(Andrew Feldman)表示,更大的芯片,就是为了满足更与时俱进的人工智能。
这背后的逻辑很简单:AI对我们的生活影响越来越大,数据库也越来越大,但现在人工智能行业进步的主要瓶颈,就是培训模型需要极长时间。高性能AI的深度学习,需要通过大量的运算和频繁的数据访问进行训练,才能不断改进和升级,一个更强大的处理器,才能尽可能快地处理海量增长的新数据
该芯片使用台积电的16纳米工艺制造的300毫米芯片切割而成,这是单个芯片级的解决方案,比起以往大多数芯片都是数十上百个集合起来,它能通过84个互连芯片组成的芯片直接联动工作。
这不仅克服了数10年前芯片尺寸的技术限制,而且这个芯片还具有400,000个AI优化的内核,具有灵活性、可编程性。

典型的硅片包含大约100个计算机芯片. 图片来自:GETTY IMAGES
再加上比GPU大3,000倍的片上缓存,解决了以往需要跨多个设备和内存层并行运算的问题,现在只用一个设备就能存储和处理整个神经网络。等于就是在一个芯片上,构建了带有RAM的一整个计算机集群。
最后,与具有数百个传统加速器的机架式服务器相比,Cerebras具有带宽高、延迟低的独特通信结构,比现有的解决方案性能速度快数千倍,可以用以往无法想象的高效率来工作。
更多的内核、更大的RAM、低延迟高带宽结构,共同构成了加速AI工作的绝佳环境。

Cerebras表示,该芯片可以驱动复杂的人工智能(AI)系统,带来AI技术的巨大飞跃,应用在未来的无人驾驶汽车、监控软件市场等各个领域。但是,芯片制造商通常不会制造这么大的芯片,因为这种大胆的设计,必须克服重大的技术障碍,包括互连、制造、封装、冷却等等。
即便是用了再精细的制造技术,这么一大块芯片也不可能没有任何缺陷。虽然该公司打算使用“冗余处理核心”技术,抛弃制造过程中一定数量的“坏”芯片,但量产良品率过低,也定会是个难越的坎。

Cerebras正在设计自己的测试和包装系统
另外,冷却芯片也是个问题。小型计算机芯片使用的功率低,很容易冷却,而Cerebras庞大的芯片不仅仅是散热器和风扇就能冷却,而是需更专业的基础设施来协助。
此外,芯片由于太大而无法放入任何传统封装中,Cerebras必需配合定制包装技术和工具来应对挑战。
Ian Cutress博士说道:这也是为什么它适合人工智能领域,因为那也是现在大笔资金流向的地方。

总而言之,Cerebras芯片的规模和雄心是疯狂的。但因为缺乏性能和功耗的细节,现在很难评估Cerebras芯片在未来的影响力。Cerebras表示,它目前正在几家大型潜在客户中开始测试系统,并将于10月份开始商用。但它不会单独销售或作为扩展卡销售,Cerebras希望在2020年中期推出围绕此类芯片构建的完整服务器。
预计未来几个月,Cerebras芯片还会公布更多技术的细节,这项技术,也必会随着AI日新月异的进程而持续升温。