显卡厂商NVIDIA与虚拟机厂商VMware于虚拟化和云计算算运会议VMworld上,分享了虚拟绘图处理器(vGPU)与混合式云计算运算的使用范例,指出虚拟绘图处理器不但在架设云计算运算与软件定义数据中心(SDDC)时更具弹性,而且相较于只使用传统处理器的环境能够提升50倍AI运算性能,有助于推广AI应用。
AI增长延续摩尔定律
如同笔者在先前文章提到,Google观察在半导体制程越来越精进之后,要进一步缩小晶体管的尺寸比以往更加困难,信息产业为了追上摩尔定律(Moore’s law,每隔2年集成电路上可容纳的晶体管数目会增加1倍)所预测的发展趋势,便逐渐将开发焦点转移到硬件加速等特殊应用领域。
NVIDIA也做出了类似的观察,他们认为摩尔定律的放缓,让持需增长的运算需求无法通过更换最新的处理器得到满足,因此导入特化运算加速单元势在必行。同时NVIDIA也预测,到了2023年,将有40%的企业导入机器学习,而在2021年会有75%的企业会导入混合云计算运算架构。
NVIDIA不但将虚拟绘图处理器(vGPU)技术推广至AI、深度学习与数据科学等作业提供服务器虚拟化技术,更可通过全新的vComputeServer软件及NVIDIA绘图处理器容器(NGC)部署在VMware vSphere等虚拟化环境中。
在美国时间8月26日举行的VMworld大会上,NVIDIA与VMware宣布将针对VMware Cloud on AWS推出绘图处理器加速服务,强化AI、机器学习与数据分析等企业应用服务,并可将各种VMware vSphere的应用与容器无缝转移至云计算。
这项服务能帮助企业运用企业级混合云平台加速推动应用现代化,从数据中心到AWS云计算平台皆以一致的VMware基础设施集成部署、转移与执行,以支持各种运算密集度最高的AI、机器学习、数据分析等作业。
此服务具有多项优势,例如机房可进行无缝转移,可以快速完成NVIDIA vComputeServer软件与绘图处理器加速作业的转移,不会发生像使用Vmware HCX时遇到停机的问题。另一方面AWS基础设施也具有相当的组织弹性,搭载NVIDIA T4加速运算单元的VMware Cloud on AWS集群具备自动化扩展能力,让管理者能依据的需求扩展或缩减运算能量。
此外NVIDIA T4 GPU内置的Tensor Cores张量运算核心可以用来加速深度学习推论作业,再配合绘图处理器虚拟化的vComputeServer软件,企业即能有充裕的弹性执行各种加速AI、机器学习与数据分析等作业,协助企业将在混合云环境中创建一致的基础设施与操作模式,借以改进安全、资源使用率与管理性能。
随着AI技术的成熟与通过绘图处理器等加速运算当元的普及,未来应该会有越来越多的AI服务问世,而服务提供商也能在虚拟化技术的协助下快速灵活地构建数据中心并调配计算资源,对于产业发展而言可以说是一剂强心针。