Meta,负责 Facebook、Instagram 和 WhatsApp 的公司等人分享了最新的 SAM 2 预览。这是其技术的新版本 细分任何模型,一种人工智能模型,能够分割任何图像或视频以检测对象的像素并跟踪它们。这样,就可以从图像中分离出特定的演员或物体,然后执行不同的编辑任务。
2023 年 XNUMX 月它就会出现 元SAM,并且在这个新版本中人工智能融入了新的功能和能力。在这次新演示的亮点中,我们必须强调视频编辑能力以及计算机图形学的发展以及创建更加真实和多功能的交互技术的可能性。
SAM 2 融合了新的分段 AI Meta 的内容
明白了 Meta SAM 的操作 第二个版本带来的新功能反映了人工智能在技术领域的进步。首先,两种技术的最终目标保持不变。它旨在高精度分割图像中的对象,促进屏幕上元素的自动编辑和识别。人工智能识别与特定对象相对应的像素,并且在技术领域具有多种用途。
例如,在海洋科学、医学和卫星图像分析等学科中,Meta 的 SAM 2 可以成为一个很好的工具。使用 SAM 出现的一些工具包括 Instagram 的背景和剪切图,它们使编辑照片文件变得更加容易。
但 SAM 主要关注静态图像。这个新版本还针对移动内容、视频和片段,其中 SAM 2 能够确定和隔离特定对象。分析视听文件的复杂性更大,但一切都表明 Meta 在人工智能及其实际应用的竞赛中不断前进。
Meta 的 SAM 2 包含的新功能
SAM 2 版本中的元分段模型结合了具有非常具体目标的新功能。一方面,实时执行分割、检测视频中的对象的可能性,也是开源设计和无需适应的泛化。
开源
Meta 发布了 SAM 2 Apache 2.0 许可证下的开源。通过这种方式,希望这样做的开发人员将能够构建与 SAM 2 完全兼容的自定义应用程序和工具,并且不会有太多复杂性。
数据集SA-V
新版本的元分割模型包括 一个名为 SA-V 的新数据集。 大约有 51.000 个从现实世界中提取的视频,用于训练人工智能以添加不同的功能和能力。此外,它还包括超过 600.000 个时空蒙版,可应用于视频编辑任务。
实时分割
与 Meta 的原始 SAM 不同, 该版本2能够实时识别和分割视频和动作中的对象。此操作还可以显着减少用户必须花在应用程序上的交互时间。
没有适应的泛化
与 SAM 2 您可以分割任何视频或图像中的任何对象,即使是在那些以前从未见过的视觉领域。这样,就无需针对每个具体情况进行个性化调整。
统一框架
Meta 之前开发的模型对图像和视频的处理方式有所不同。现在,SAM 2 方法具有凝聚力,因此可以实现更加通用的新技术学习,并且还可以在所分析的不同类型的视觉数据中提供一致的性能。
互动细分
SAM 2 还产生其他有趣的功能,用户 你可以用边界框引导模型的注意力 或通过具体描述,或通过点击。这是一种能够非常快速地适应特定和多样化需求的模型。最后,通过 Meta 的最少 SAM 2 输入,您将能够非常精确地识别对象。
使用 Meta 的 SAM 2 进行分割的速度和效率
La 元人工智能 在 SAM 2 版本中,它提高了对象分割过程的速度和效率。开发人员可以创建一个平台,可以快速有效地分析各种元素,从照片和视频到特定的文本描述。
高分辨率图像处理
SAM 2 还可以处理高质量图像。它可以处理的照片分辨率高达该模型之前版本支持的分辨率的 4 倍。这保证了更具吸引力和现实的结果。当涉及到医学或卫星地图解读等图像领域的分析和扫描时,这是一个巨大的进步。
清晰度越高,分割物体和个体就越容易、越快。 SAM 2 的核心是提供一种多功能工具,能够快速适应并为各种操作提供出色的结果。
SAM 2可以应用于什么?
了解人工智能的巨大进步及其扩展工作,有趣的是看到 Meta 决定转向的领域。通过 SAM 2 模型,可以预期在不同领域取得进步。从实时和自动化视频编辑,到自动化和机器人动作。
还有 医学和科学领域与人工智能密切相关,能够利用这些进步来制定新颖的策略。 Meta 的计算机工程师也在努力确保 SAM 2 具有特定用途,并允许在数据注释和转储相关领域取得更快的进展。收集不同数据的平台可以使用 SAM 2,查找模式并以指数方式加快结果出现的速度。距离地平线还很遥远。人工智能正处于最佳状态,Meta 不想错失良机。鉴于其开发人员正在全速工作,并且 SAM 2 涉及如此多的领域,这可能是一个很好的提议。