很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于Nvidia将AI工作负载带到AWS Cloud上的VMware的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对Nvidia将AI工作负载带到AWS Cloud上的VMware这篇文章感兴趣的小伙伴可以一起来看看
Nvidia Corp.通过在AWS的VMware Cloud上推出新的“加速GPU服务”来实现公共云中的人工智能和机器学习。
在今天的VMworld 2019大会上宣布,新服务使将基于vSphere的现有应用程序和软件容器轻松迁移到VMware Cloud on AWS成为了一个混合云平台,该平台在Amazon Web Services Inc.上运行VMware的软件定义的数据中心堆栈。的公共云。
该公司表示,一旦重新部署了这些应用程序,它们便可以利用Nvidia的高性能图形处理单元来利用各种技术,包括高性能计算,机器学习,数据分析和视频处理应用程序。
Nvidia认为,图像和语音识别,财务建模和自然语言处理等AI工作负载最好在其GPU硬件上完成,因为与传统的中央处理单元相比,它可以显着加快训练和推理时间。
新服务利用了Amazon EC2裸机实例和Nvidia的新Virtual Compute Server软件,并将它们与Nvidia T4 GPU结合在一起以加速AI工作负载。
Nvidia创始人兼首席执行官黄仁勋表示:“从运营情报到人工智能,企业依靠GPU加速计算来做出直接影响其底线的快速,准确的预测。” “我们将与VMware一起设计最先进,性能最高的GPU加速的混合云基础架构,以促进整个企业的创新。”
英伟达表示,在AWS Cloud上的VMware上运行AI工作负载的最大好处之一是,它们将能够利用亚马逊云基础架构的“弹性”性质。新服务将使客户能够根据需要扩展其AI工作负载,并根据其数据科学家的需求来扩大和缩小其培训环境。
其他好处包括提高了AI应用程序的安全性和可治理性,还没有提到更好的可移植性。Nvidia表示,客户只需单击一个按钮即可在AWS Cloud和本地环境之间的VMware之间迁移应用程序,而无需停机。
SiliconANGLE姐妹市场研究公司Wikibon的分析师James Kobielus表示,此次合作意味着VMware现在可以为其客户提供高性能的AI计算基础架构,而这是以前无法做到的。
Kobielus表示:“通过这种合作关系,VMware客户可以轻松地将裸机CPU上运行的AI工作负载转移到运行在AWS Cloud上的Nvidia最新,最快的GPU虚拟集群中。” “这将使VMware在运行企业客户最先进的AI应用程序的战斗中,在其他混合云解决方案提供商(例如IBM和HPE)中有优势。”