Meta AI 开源万物可分割 AI 模型(SAM)

这篇具有很好参考价值的文章主要介绍了Meta AI 开源万物可分割 AI 模型(SAM)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

开始

4 月 6 日,根据 Meta AI 官方博客,Meta AI 宣布推出了一个 AI 模型 Segment Anything Model(SAM,分割一切模型)。据介绍,该模型能够根据文本指令等方式实现图像分割,而且万物皆可识别和一键抠图。

github源码地址:facebookresearch/segment-anything

官方网站体验地址:segment-anything.com/demo

特点

Segment Anything Model (SAM) 根据输入提示(如点或框)生成高质量的对象蒙版,并可用于为图像中的所有对象生成蒙版。它已经在 11 万张图像和 1 亿个掩码的数据集上进行了训练,并且在各种分割任务上具有强大的零镜头性能。说到底是一种通用的图像分割方法。

初体验

进入官网体验地址后:点击同意条款和条件,大概意思是:

  1. 这是一个研究演示,不得用于任何商业目的
  2. 上传的任何图像将仅用于演示分段任何模型。所有图像和从中派生的任何数据将在会话结束时删除。
  3. 上传的任何图片均不得违反任何知识产权或 Facebook 社群守则。

进入上传界面:

点击“Upload an image”,上传自己的图片:(也可以直接使用官方的图片测试)
Meta AI 开源万物可分割 AI 模型(SAM)

我上传完图片用时3分11秒,图片大小只有50多K。还有一张4M多的用时几乎差不太多,看来跟图片大小关系不是太大

Hover & Click——选取物体

基本操作:左键选择物体,右键移除选取
Meta AI 开源万物可分割 AI 模型(SAM)

选取完之后,可以使用Cut out object,或则再点击Multi-mask再次点击选择标记点,可多次分割。

选完之后点击“Cut out object”,然后结果就保存再“Cut-Outs”一栏中。

Box——框选物体

基本操作:按住左键选出一个框框范围
Meta AI 开源万物可分割 AI 模型(SAM)

保存所选区域的方法仍然是点击“Cut out object”。然后结果就保存再“Cut-Outs”一栏中。

Everything——分割所有物体

不用咱们操作了,直接交给AI处理,提取出所有可分割图形物体
Meta AI 开源万物可分割 AI 模型(SAM)

所有物体的区域都保存在“Cut-Outs”一栏中:

Cut-Outs——结果提取

基本操作:只需要对Cut-Outs一栏的图片右键点击,并在弹出的菜单中选择“将图片另存为”即可。
Meta AI 开源万物可分割 AI 模型(SAM)

结语

用起来感觉效果不错,毕竟本人不是做ps或者图片处理的,对图片的质量要求不算高,不过Meta开源了segment-anything框架,属实佩服,毕竟连数据集也可以进行下载,下载地址在github主页下方,目前已经21k+star。希望AI可以继续发展,让「玩具」变成工具
Meta AI 开源万物可分割 AI 模型(SAM)文章来源地址https://www.toymoban.com/news/detail-410479.html

到了这里,关于Meta AI 开源万物可分割 AI 模型(SAM)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【图像分割】Meta分割一切(SAM)模型环境配置和使用教程

    注意: python=3.8 , pytorch=1.7, torchvision=0.8 Feel free to ask any question. 遇到问题欢迎评论区讨论. 官方教程: (1)pip: 有可能出现错误,需要配置好Git。 (2)本地安装: 有可能出现错误,需要配置好Git。 (3)手动下载+手动本地安装:  zip文件: 解压后运行:  matplotlib 3.7.1和

    2023年04月12日
    浏览(47)
  • Meta的分割一切模型SAM( Segment Anything )测试

    Meta不久前开源发布了一款图像处理模型,即分割一切模型:Segment Anything Model,简称 SAM,号称要从任意一张图片中分割万物,源码地址为: 打开后看到目录结构大概这样: 一般一个开源项目中都会有项目介绍和示例代码。本示例中的文件 README.md 即为项目概况介绍,主要说明

    2023年04月27日
    浏览(47)
  • 【多模态】12、Segment Anything | Meta 推出超强悍可分割一切的模型 SAM

    论文:Segment Anything 官网:https://segment-anything.com/ 代码:https://github.com/facebookresearch/segment-anything 出处:Meta、FAIR 时间:2023.04.05 贡献点: 首次提出基于提示的分割任务,并开源了可以分割一切的模型 SAM 开源了一个包含 1100 万张图像(约包含 10 亿 masks)的数据集 SA-1B,是目前

    2024年02月17日
    浏览(48)
  • 【AIGC】6、Segment Anything | Meta 推出超强悍可分割一切的模型 SAM

    论文:Segment Anything 官网:https://segment-anything.com/ 代码:https://github.com/facebookresearch/segment-anything 出处:Meta、FAIR 时间:2023.04.05 贡献点: 首次提出基于提示的分割任务,并开源了可以分割一切的模型 SAM 开源了一个包含 1100 万张图像(约包含 10 亿 masks)的数据集 SA-1B,是目前

    2023年04月23日
    浏览(58)
  • 【多模态】14、Segment Anything | Meta 推出超强悍可分割一切的模型 SAM

    论文:Segment Anything 官网:https://segment-anything.com/ 代码:https://github.com/facebookresearch/segment-anything 出处:Meta、FAIR 时间:2023.04.05 贡献点: 首次提出基于提示的分割任务,并开源了可以分割一切的模型 SAM 开源了一个包含 1100 万张图像(约包含 10 亿 masks)的数据集 SA-1B,是目前

    2024年02月16日
    浏览(45)
  • 【计算机视觉 | 语义分割】OVSeg:分割一切后,SAM又能分辨类别了,Meta/UTAustin提出全新开放类分割模型

    前几日,Meta 推出了「分割一切」AI 模型 Segment Anything,令网友直呼 CV 不存在了?! 而在另一篇被 CVPR 2023 收录的论文中,Meta、UTAustin 联合提出了新的开放语言风格模型(open-vocabulary segmentation, OVSeg),它能让 Segment Anything 模型知道所要分隔的类别。 论文地址: 从效果上来看

    2024年02月12日
    浏览(54)
  • SAM(2023)-分割万物

    论文: 《Segment Anything》 github: https://github.com/facebookresearch/segment-anything 作者构建到目前为止最大分割数据集,包括1billion mask及11M image,该模型训练过程是可提示的,所有可以进行zero-shot任务,甚至超越之前全监督结果。 SAM结构如图4,包括: 图像编码器、灵活的prompt编码器、

    2023年04月27日
    浏览(96)
  • SAM - 分割一切图像【AI大模型】

    如果你认为 AI 领域已经通过 ChatGPT、GPT4 和 Stable Diffusion 快速发展,那么请系好安全带,为 AI 的下一个突破性创新做好准备。 推荐:用 NSDT场景设计器 快速搭建3D场景。 Meta 的 FAIR 实验室刚刚发布了 Segment Anything Model (SAM),这是一种最先进的图像分割模型,旨在改变计算机视

    2023年04月21日
    浏览(40)
  • SAM语义分割模型开源,AIGC时代,图像抠图工具都被大模型统一了?(下)

    大家好,我是千与千寻,很高兴今天和大家再一次分享我在ChatGPT上的学习经历! 这次是《SAM语义分割模型开源,AIGC时代,图像抠图工具都被大模型统一了?》系列的最终版本了。 在之前的两节中我们介绍了分割一切的 Segment Anything模型,以及分割视频的 Segment-and-Track Anyth

    2024年02月13日
    浏览(38)
  • Meta开源AI音频和音乐生成模型

    在过去的几年里,我们看到了AI在图像、视频和文本生成方面的巨大进步。然而,音频生成领域的进展却相对滞后。MetaAI这次再为开源贡献重磅产品:AudioCraft,一个支持多个音频生成模型的音频生成开发框架。 AudioCraft开源地址 开源地址:https://github.com/facebookresearch/audiocraf

    2024年02月14日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包