基于Segment anything的实例分割半自动标注

这篇具有很好参考价值的文章主要介绍了基于Segment anything的实例分割半自动标注。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

基于Segment anything的实例分割半自动标注

介绍

使用Meta AI的SAM,并添加了一个基本界面来标记图像,并保存COCO格式的掩码。

源码

https://github.com/anuragxel/salt

安装

  1. 安装SAM;
  2. 创建conda虚拟环境,使用conda env create -f environment.yaml;
  3. 安装coco-viewer来快速可视化标注结果。

使用方法

1、将图片放入到<dataset_name>/images/*并且创建空目录<dataset_name>/embeddings
标签会自动保存在<dataset_name>/annotations.json
2、运行helpers脚本

  • 运行extract_embeddings.py来提取图像的中间特征
  • 运行generate_onnx.py来生成*.onnx文件,保存在models中。

3、 运行segment_anything_annotator.py,给相关的参数,包括<dataset-path><categories>

  • 使用左击和右击单击对象(表示在对象边界之外)。

  • n表示添加mask到标注中

  • r拒绝预测的掩膜

  • ad表示数据集中的循环(next和prev)

  • lk增加和减少其他标注的透明度

  • ctrl+s表示保存当前进度

4、使用coco-viewer来显示你的标注
python cocoviewer.py -i <dataset> -a <dataset>/annotations.json

快速使用

docker镜像准备
docker pull 1224425503/seg-tool:latest
开启docker容器

docker run -it --rm \
--privileged=true \
--network host \
 -e NVIDIA_VISIBLE_DEVICES=all \
 -e NVIDIA_DRIVER_CAPABILITIES=all \
 --env="DISPLAY"  \
 --env="QT_X11_NO_MITSHM=1" \
 --volume="/tmp/.X11-unix:/tmp/.X11-unix:rw" \
 --volume="/dev:/dev" \
 -v /dev:/dev \
 --gpus all \
 --name seg-tool \
 1224425503/seg-tool:latest  /bin/bash

复现结果

基于Segment anything的实例分割半自动标注

安装环境可能存在的问题

This application failed to start because no Qt platform plugin could be initialized

参考https://github.com/NVlabs/instant-ngp/discussions/300文章来源地址https://www.toymoban.com/news/detail-455880.html

到了这里,关于基于Segment anything的实例分割半自动标注的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • (Windows)半自动化标注-Label-Studio的安装和简单使用

    Label Studio 是一款优秀的标注软件,覆盖图像分类、目标检测、分割等领域数据集标注的功能。 SAM (Segment Anything) 是 Meta AI 推出的分割一切的模型。 报错的py文件里内容改为 import ruamel_yaml as yaml

    2024年02月15日
    浏览(46)
  • 【图像分割】Grounded Segment Anything根据文字自动画框或分割环境配置和基本使用教程

    要求: python=3.8 , pytorch=1.7,   torchvision=0.8 官方地址: https://github.com/IDEA-Research/Grounded-Segment-Anything Marrying Grounding DINO with Segment Anything Stable Diffusion BLIP Whisper ChatBot - Automatically Detect , Segment and Generate Anything with Image, Text, and Audio Inputs - GitHub - IDEA-Research/Grounded-Segment-Anything: Marr

    2024年02月05日
    浏览(70)
  • 69、Spring Data JPA 的 @Query查询 和 命名查询(半自动:提供 SQL 或 JPQL 查询)

    1、方法名查询(全自动,既不需要提供sql语句,也不需要提供方法体) 2、@Query查询(半自动:提供 SQL 或 JPQL 查询) 3、自定义查询(全手动) @Query查询 和 命名查询的区别: 命名查询与直接用@Query来定义查询的本质是一样,只不过它们定义SQL或JPQL语句的位置不同。

    2024年02月07日
    浏览(44)
  • Segment anything(图片分割大模型)

    目录 1.Segment anything  2.补充图像分割和目标检测的区别 定义 :图像分割通用大模型 延深 :可以预计视觉检测大模型,也快了。 进一步理解 :传统图像分割对于下图处理时,识别房子的是识别房子的模型,识别草的是识别草的模型,识别人的是识别人的模型,而Segment anyt

    2024年02月14日
    浏览(48)
  • 图像分割之SAM(Segment Anything Model)

    论文:Segment Anything Github:https://github.com/facebookresearch/segment-anything 论文从zero-shot主干网络的基础出发,提出了SAM(Segment Anything Model)模型。该模型有别于传统的分割模型。传统分割模型只能输入原图输出固定的分割结果,SAM在设计上可以同时输入原图和特定提示(点、框、

    2024年02月07日
    浏览(54)
  • 【图像分割】Segment Anything(Meta AI)论文解读

    论文地址:https://arxiv.org/abs/2304.02643 项目地址:https://github.com/facebookresearch/segment-anything Demo 与数据集SA-1B地址:https://segment-anything.com/ Meta 发布的新模型名叫 Segment Anything Model (SAM) 。他们在博客中介绍说,「SAM 已经学会了关于物体的一般概念,并且它可以为任何图像或视频中

    2023年04月10日
    浏览(46)
  • Segment Anything(SAM)全图分割做mask

    项目的源码和模型下载以及环境配置等可参考我的上一篇文章,这里不再赘述。  文章链接:https://blog.csdn.net/m0_63604019/article/details/130221434 在项目中创建一个名为segment-everything.py的文件,文件中写入如下代码: 然后右键点击【Run \\\'segment-everyting\\\'】运行segment-everyting.py文件,运

    2024年02月10日
    浏览(49)
  • 【图像分割】SAM:Segment Anything论文学习V1

    论文:2304.Segment Anything 代码: https://github.com/facebookresearch/segment-anything 官网与demo:https://segment-anything.com/ 【扩展阅读】——分割一切模型(SAM)的全面调研:2305.A Comprehensive Survey on Segment Anything Model for Vision and Beyond 【 应用 】在stable-diffusion-webui中使用的插件:https://github.com/co

    2024年02月07日
    浏览(57)
  • 【计算机视觉 | 目标检测 | 图像分割】Grounded Segment Anything:Grounding DINO + Segment Anything Model (SAM)介绍

    集成SAM,可以通过文本提示做检测/分割等任务。 我们计划通过结合 Grounding DINO 和 Segment Anything 来创建一个非常有趣的演示,旨在通过文本输入检测和分割任何内容! 并且我们会在此基础上不断完善它,创造出更多有趣的demo。 我们非常愿意帮助大家分享和推广基于Segment-A

    2024年02月04日
    浏览(50)
  • Segment Anything:突破边界的图像分割新技术解析

    Segment Anything论文地址: https://arxiv.org/pdf/2304.02643.pdf 在自然语言处理中,基于大规模语言模型的零样本和少样本学习已经取得了重要进展。在计算机视觉领域,例如CLIP和ALIGN,通过工程化的文本提示可以实现对新视觉概念的零样本泛化。 本论文中,我们提出了可提示的分割任

    2024年02月12日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包