Segment anything(SAM)论文及demo使用保姆级教程

这篇具有很好参考价值的文章主要介绍了Segment anything(SAM)论文及demo使用保姆级教程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Meta在论文中发布了新模型Segment Anything Model(SAM),声称说可以分割一切,可以在任何图像中分割任何物体,论文链接https://arxiv.org/abs/2304.02643

Segment anything(SAM)论文及demo使用保姆级教程

大概看了一遍论文和感受了Meta提供的demo模型,我觉得主要有两个爆点,首先是收集数据的方式,加入了主动学习的形式,因为他的数据集特别大,达到了十亿组数据,那么庞大的数据不可能全部去标注,然后会通过标注一部分然后剩下一部分其他人标,最后加上人工校验部分达到一个区域闭环的效果,当数据集足够庞大时,训练出的模型效果一定就会更好,而且像GPT一样不断更新学习新的数据,模型效果会更好。这个点来说是一个很工程性但是工作量非常大的工作。第二点是有一个prompt的概念,prompt简单来说就是类似于一个“提示词”的概念,其实跟GPT现在那么火和不断提升性能的原因一样。因为ChatGPT用户会给它输入一句话或者一段话来“提示”ChatGPT如何去给出最正确的答案,SAM也同样,在demo示例上SAM首先会自动分割图像中的所有内容,但是如果你输入一个提示词的话,比如一张图片你想让SAM分割出Cat或Dog这个提示词,SAM会自动在照片中猫或者狗周围绘制框并实现分割。

剩下具体的文章内容大家可以点击文章中的链接查看,接下来给大家介绍一下如何使用SAM的demo教程,链接在这https://segment-anything.com/demo

Segment anything(SAM)论文及demo使用保姆级教程

首先我们同意该提示,大概意思是这是一个研究演示,不能用于任何商业目的。上传的任何图像将仅用于演示分段任意模型。在会话结束时,将删除所有图像和从中派生的任何数据。上传的任何图片都不应侵犯任何知识产权或Facebook的社区标准。

之后我们可以随意点击上面的一张示例图,刚才说到了狗狗,我们就点进去一张飞奔的柯基,看看能不能很好的分割出来。点进去之后需要等模型加载一下

Segment anything(SAM)论文及demo使用保姆级教程

 加载过之后,会提示你怎么去使用,不过是英文的,可以看我之后的教程,这个是通过添加点来掩盖区域。选择“添加区域”,然后选择对象。通过选择移除区域来细化蒙版,然后选择区域。

Segment anything(SAM)论文及demo使用保姆级教程

 Segment anything(SAM)论文及demo使用保姆级教程

Segment anything(SAM)论文及demo使用保姆级教程

 我们可以通过add mask来添加mask点来让模型自动分割,反之remove area可以移除区域,底下的reset可以重置所有标记的点。undo可以撤销刚才标记的点,可以看到这个图片打过点之后分割出来的柯基非常的精准,其实在不click的时候也可以自动分割的特别精准,毕竟也是示例图片。

Segment anything(SAM)论文及demo使用保姆级教程

Segment anything(SAM)论文及demo使用保姆级教程

 接下来就是box的选取,就是说选定一个box区域,然后模型会自动分割出来框里面需要的图像,看起来分割的效果也是非常的不错。

接下来就是SAM最厉害的一点了,segment anything,可以看到整张图片中的狗、草坪、树都被很好的分割出来了。

Segment anything(SAM)论文及demo使用保姆级教程

 以上就是基本的示例内容,接下来我们可以自定义load图像,会到最开始的地方,点击load。

Segment anything(SAM)论文及demo使用保姆级教程

 我导入了一张医学图像数据,青光眼杯盘比分割的数据,想看看泛化到医学图像需要高精度分割的数据SAM的表现如何,可以发现我随便打了一个框分割的效果其实就已经特别好了,看来这个大模型确实有着很强的效果,不过可能还是达不到医学图像分割的标准,我在之后的博客会介绍SAM怎么和医学图像进行结合。

Segment anything(SAM)论文及demo使用保姆级教程

 论文代码也已经开源,可以在https://github.com/facebookresearch/segment-anything中下载代码,之后也会给大家更新怎么本地调用SAM模型的教程的。文章来源地址https://www.toymoban.com/news/detail-462512.html

到了这里,关于Segment anything(SAM)论文及demo使用保姆级教程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • [自注意力神经网络]Segment Anything(SAM)论文阅读

    论文地址 https://arxiv.org/abs/2304.02643 源码地址 https://github.com/facebookresearch/segment-anything 强烈建议大家试试Demo,效果真的很好:https://segment-anything.com/         本文建立了一个基础图像分割模型,并将其在一个巨大的数据集上进行训练,目的是解决一系列下游任务。本文的关键

    2023年04月23日
    浏览(48)
  • 【Segment Anything Model】论文+代码实战调用SAM模型预训练权重+相关论文

    上篇文章已经全局初步介绍了SAM和其功能,本篇作为进阶使用。点击订阅专栏查看专栏列表和对应知识点,本文为seg SAM系列文章,在持续更新。

    2024年02月05日
    浏览(42)
  • 【论文阅读】Segment Anything(SAM)——可分割一切的CV大模型

    【前言】随着ChatGPT席卷自然语言处理,Facebook凭借着Segment Anything在CV圈也算扳回一城。迄今为止,github的star已经超过3万,火的可谓一塌糊涂。作为AI菜鸟,可不得自己爬到巨人肩膀上瞅一瞅~ 论文地址:https://arxiv.org/abs/2304.02643 代码地址:GitHub - facebookresearch/segment-anything: T

    2024年02月15日
    浏览(35)
  • 【自用】SAM模型论文笔记与复现代码(segment-anything-model)

    一个 prompt encoder ,对提示进行编码, image encoder 对图像编码,生成embedding, 最后融合2个 encoder ,再接一个轻量的 mask decoder ,输出最后的mask。 模型结构示意图: 流程图: 模型的结构如上图所示. prompt会经过 prompt encoder , 图像会经过 image encoder 。然后将两部分embedding经过一个

    2024年01月24日
    浏览(35)
  • Segment Anything论文翻译,SAM模型,SAM论文,SAM论文翻译;一个用于图像分割的新任务、模型和数据集;SA-1B数据集

    论文链接: https://arxiv.org/pdf/2304.02643.pdf https://ai.facebook.com/research/publications/segment-anything/ 代码连接:https://github.com/facebookresearch/segment-anything 论文翻译: http://t.csdn.cn/nnqs8 https://blog.csdn.net/leiduifan6944/article/details/130080159 本文提出Segment Anything (SA)项目:一个用于图像分割的新任务

    2023年04月19日
    浏览(40)
  • 【Python&语义分割】Segment Anything(SAM)模型介绍&安装教程

    1.1 概况         Meta AI 公司的 Segment Anything 模型是一项革命性的技术,该模型能够根据文本指令或图像识别,实现对任意物体的识别和分割。这一模型的推出,将极大地推动计算机视觉领域的发展,并使得图像分割技术进一步普及化。         论文地址:https://arxiv.org/

    2024年02月05日
    浏览(44)
  • 【论文阅读笔记】Sam3d: Segment anything model in volumetric medical images[

    Bui N T, Hoang D H, Tran M T, et al. Sam3d: Segment anything model in volumetric medical images[J]. arXiv preprint arXiv:2309.03493, 2023.【开源】 本文提出的SAM3D模型是针对三维体积医学图像分割的一种新方法。其核心在于将“分割任何事物”(SAM)模型的预训练编码器与一个轻量级的3D解码器相结合。与

    2024年01月20日
    浏览(39)
  • 使用Segment Anything(SAM)模型进行自动标注

    1.下载项目 项目1:https://github.com/zhouayi/SAM-Tool 项目2:https://github.com/facebookresearch/segment-anything 下载 SAM 模型:https://dl.fbaipublicfiles.com/segment_anything/sam_vit_h_4b8939.pth 2.把数据放置在 dataset_path/images/* 这样的路径中,并创建空文件夹 dataset_path/embeddings 3.将项目1中的 helpers 文件夹复

    2024年02月04日
    浏览(43)
  • 【论文笔记】SAM3D: Zero-Shot 3D Object Detection via Segment Anything Model

    原文链接:https://arxiv.org/pdf/2306.02245.pdf   分割一切模型(SAM)作为视觉领域的基石模型,有强大的泛化性,能解决很多2D视觉问题。但是SAM是否可以适用于3D视觉任务,仍需要被探索。   目前几乎没有关于3D目标检测的零样本学习,如何使SAM的零样本能力适用于3D目标检测

    2024年02月16日
    浏览(31)
  • 【项目学习】记录segment-anything、SAM及衍生自动标注工具使用

    本文章由三部分组成: 1.Segment Anything Model(SAM)概述:是我学习概念做的记录 可以不看直接跳过 。 2.SAM衍生的标注工具使用:试用了两个开源的SAM衍生的标注工具记录 3.遇到的问题 参考: 1.segment-anything官方demo演示 2.SA基础模型图像分割的介绍 3.segment-anything项目 Segment Anythin

    2024年02月06日
    浏览(90)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包