首页 科技 > 正文

Meta推出Segment Anything Model 2这是其用于增强图像和视频编辑的AI模型

Meta宣布了其最新版本的 Meta Segment Anything Model (SAM)。最新的 Segment Anything Model 2 是一年多前发布的 SAM 的后继者。这家科技事业部,新模型现在支持视频和图像中的对象分割。

Meta 在其官方发布中表示:“我们根据 Apache 2.0 许可证发布 SAM 2,因此任何人都可以使用它来构建自己的体验。我们还根据 CC BY 4.0 许可证分享了 SA-V(我们用于构建SAM 2 的数据集),并发布了基于 Web 的演示体验,每个人都可以试用我们的模型版本。”

SAM 是 Meta 的 FAIR(基础人工智能研究)实验室的一部分,被视为计算机视觉领域的下一个重大飞跃。对于外界来说,计算机视觉是人工智能的图像一个领域,它允许计算机解释和视频等因此,从本质上讲,SAM是一种人工智能模型,是视觉领域的进步。Meta的SAM是一种计算机最先进的分割模型,以消耗性和多功能性执行复杂的图像对于行业而言,SAM可以将可视化数据落地分析成允许精确分析和创新的碎片。

说话 SAM 2,元调用新模型可以识别图像中与感兴趣对象相对应的像素。现在,这是计算机视觉领域漫游的任务。SAM 的上一个版本是此类图像任务的基础模型。

Meta将SAM 2描述了第一个用于实时、可提示的图像和视频对象分割的统一模型,可实现视频分割体验的重大变革。在精度方面,SAM 2的功能远超SAM,及其视频分割性能超越现有模型。新模型还可以分割任何视频或图像中的任何对象,基本上是之前未见过的视觉内容,无需进行自定义调整。

郑重声明:本文版权归原作者所有,转载文章仅为传播更多信息之目的,如作者信息标记有误,请第一时间联系我们修改或删除,多谢。