VMware与Nvidia推出企业GPU虚拟化平台

Nvidia和VMware两家公司合作,让用户能够更简单地在混合云环境中,开发和部署各种人工智能工作负载,通过结合Nvidia人工智能企业(AI Enterprise)软件组件,和VMware服务器虚拟化软件vSphere,扩展CUDA应用程序、人工智能框架、模型和SDK到多节点中,提高性能和兼容性。

Nvidia人工智能企业软件组件是一套人工智能工具和框架,企业标榜能优化业务流程,提高制造、物流、金融服务、零售和医疗保健各行业的效率,该软件组件让机器学习研究人员,可以简单地取用人工智能工具,以进行高端诊断、智能工厂、诈骗侦测等人工智能开发。这个工具减少了部署单个人工智能应用程序的复杂性,也解决手动配置或是基础设施不兼容等潜在问题。

而通过在vSphere上执行Nvidia人工智能企业软件组件,用户可以避免难管理又难保护的人工智能专用系统孤岛。Nvidia人工智能企业软件组件支持虚拟化工作负载,可在vSphere上以接近裸机的性能运行,人工智能工作负载可以跨多个节点扩展,甚至在VMware Cloud Foundation上执行超大规模的深度学习训练模型。

官方提到,各种规模的人工智能工作负载,像是即时交通系统、线上购物推荐系统或是语音助理等,都有各种的资料需求,而训练这些人工智能模型需要非常大量的资料,并需要获取多个节点中多个GPU的运算性能,但是反之经部署的模型,执行推理运算通常只需要较少的计算资源,甚至不需要一个GPU完整的运算能力。而vSphere采用Nvidia的多执行实例GPU技术,可将A100 GPU计算资源从硬件层级,划分给多达7个执行实例,最大程度支持各种规模的工作负载。

现在经Nvidia认证的系统上,开始提供AI Enterprise for vSphere的支持,包括Dell、HPE、Lenovo和Supermicro等服务器,可让最先进的人工智能应用程序如同传统工作负载般地运行在通用基础设施上,并使用数据中心管理工具进行管理。IT可以管理其可用性、优化资源分配,并且保护在混合云环境,或是企业本地部署中的资料。

Nvidia提到,这样的合作是业界首创,让人工智能研究人员、资料科学家和开发人员,都得以使用需要的人工智能项目软件,而IT人员也可以使用熟悉的管理工具管理数据中心,以支持人工智能技术的发展。