首页 互联网 > 正文

Dotscience将AI平台DevOps引入Kubernetes

Dotscience今天宣布将提供一个DevOps平台,该平台可以加速Kubernetes集群上可用的人工智能(AI)模型的构建和部署。

该公司首席执行官卢克马斯登(Luke Marsden)表示,许多组织开始采用AI原生模型,以便更容易在本地或公共云环境中部署。AI模型作为Docker映像部署在Kubernetes集群中运行。

Dotscience正在简化训练人工智能模型的过程,然后通过其Dotscience Kubernetes Runner平台将其部署在推理引擎上。然后,这些模型可以由基于Prometheus和Grafana的仪表板实例持续监控,Grafana也可以使用这些仪表板。

DOT还宣布与SP Global结盟。根据这一联盟,两家公司将共同定义一套构建和部署人工智能模型的最佳实践。全球标准& amp标普选择与Dotscience合作,是因为它发现,由于需要建立强大的数据管道和在本地笔记本电脑上运行的AI模型实例等问题,至少有一半的AI模型未能通过孵化阶段。在生产环境中运行的服务器上。

人工智能采用的两个最大障碍是,大多数数据科学团队没有一个可重复的过程来构建和部署人工智能模型。现在,许多组织充斥着没有部署应用程序的AI模型。这是因为缺乏将AI模型移交给应用程序开发团队的定义过程。

随着新的相关数据源的发现,更具挑战性的是,许多模型需要更新,如果没有一套最佳的DevOps实践,很难实现这些模型。

最后,马斯登指出,许多已部署的AI模型在其模型中嵌入了偏差,导致许多偏差在部署后回滚。

马斯登表示,由于所有这些问题,DevOps for AI(也称为机器学习(MLOps))正在成为一门学科,组织处于拥抱AI的前沿。DOT通过提供持续集成/持续部署平台来管理构建和部署流程,努力使采用DevOps for AI变得更容易。可以通过图形界面、Python库或公司提供的一套命令行界面(CLI)工具来部署AI模型。

就AI模型而言,显然还处于初级阶段。然而,鉴于许多人工智能项目的雄心,如果人工智能模型没有达到预期,该组织需要能够快速失败。他们的挑战不仅是建立人工智能模型,还包括找到在工业规模上部署和更新这些人工智能模型的方法。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。