很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于AWS将Nvidia T4 GPU带到前哨基地进行AI推理和渲染的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对AWS将Nvidia T4 GPU带到前哨基地进行AI推理和渲染这篇文章感兴趣的小伙伴可以一起来看看
Amazon Web Services Inc.今天通过添加由Nvidia Corp.的T4图形处理单元提供支持的G4实例,增强了其AWS Outposts平台。
Outposts使组织能够在自己的数据中心中部署AWS基础设施,并让Amazon.com Inc.子公司代表他们治理硬件。
它针对希翼利用提供商的技术能力但由于某种原因而无法在其公共云上部署其工作负载的公司。例如,一家医疗保健公司可能不想将患者记录或专有研究文件移至其无法操纵的数据中心。
Nvidia企业和边缘计算部门产品高级总监贾斯汀·博伊塔诺(Justin Boitano)解释说:“大多数公司仍将数据保留在自己的墙内,因为他们将数据视为自己的核心知识产权。” “但是,要使深度学习从研究过渡到生产,企业需要在数据旁边提供云提供的灵便性和易于开辟性。这是带有T4 GPU的AWS Outpost现在所能实现的很大一部分。”
AWS添加到前哨基地的由T4驱动的G4实例针对两个主要用例。一种是推理,或在实时数据上运行经过训练的AI模型,另一种是图形渲染。
G4实例有7种大小,范围从4到96个虚拟中央处理单元。最低的五个G5配置带有一个T4 GPU,而最高的型号则分别具有四个和八个,以及最大1.8 TB的本地NVMe闪存存储。
Nvidia的T4芯片位于价格阶梯上其高端Volta V100数据中心卡的下方,并具有更通用的体系结构。V100严格面向机器学习,而T4具有40个称为RT内核的专用电路,有助于加速图形处理。RT Core加快了在媒体文件(例如电影的计算机生成图像)中生成光影效果的任务。