scannet数据集简介和下载

这篇具有很好参考价值的文章主要介绍了scannet数据集简介和下载。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

近期打算复现pointcontrast这个模型做语义分割,一直卡在数据集的下载上,觉得有必要搞明白这个数据集是怎么回事。这里要非常感谢两个博主,下面有他们博文的连接,写的很好,我这里整理一下思路。

数据集简介

数据集的github地址

ScanNet 是一个 RGB-D 视频数据集,包含 1500 多次扫描中的 250 万个视图,并使用 3D 相机姿势、表面重建和实例级语义分割进行注释 。 ScanNet V2数据集一共1.2T 。(但其实不用全下载,按照对应的任务有选择的下载)

RGB-D 传感器是一种特定类型的深度感应设备,与RGB(红色、绿色和蓝色)传感器相机配合使用。 它通过在每个像素的基础上使用深度信息(与传感器的距离相关)来增强传统图像,即RGBD = RGB + Depth Map。

  1. 数据集怎么制作的呢?

    斯坦福的博士团队收集3D重建数据,用有效的方式对数据进行标注,来收集更多数据。团队通过收集RGB-D的视频序列,通过ipad应用加深传感器收集,然后视频会被上传到服务器,并被自动重建。 然后,视频会被给到亚马逊 Mechanical Turk,将标注工作众包出去。

2.数据怎么标注的呢?

​ 在一个给定的3D场景中,绘制出物体,可以是椅子、桌子或者计算机,从而了解每个物体,以及对应的 所在位置。每个图像通常需要5个人来标注。所得数据可以在做物体分类这样的训练任务。主要的任务就是 给3D数据赋予语义解释,这样有利于机器人更好的理解世界。

数据集介绍

一共1513个采集场景数据(每个场景中点云数量都不一样,如果要用到端到端可能需要采样,使每一个场景的点都相同),共21个类别的对象,其中,1201个场景用于训练,312个场景用于测试 。

ScanNet 中的数据按 RGB-D 序列组织。每个序列都存储在名为 scene < spaceId > < scanId > 或 scene%04d_%02d 的目录下,其中每个空间对应一个唯一位置(从 0 开始索引)。扫描期间捕获的原始数据、相机姿势和表面网格重建以及注释元数据都针对给定序列存储在一起。该目录具有以下结构:

数据集目录结构:虽然解释了但还是没太看懂。。。。。但大概知道里面是2D和3D数据,如果点云的话不需要2D的数据。

<scanId>
|-- <scanId>.sens
    包含颜色帧、深度帧、相机姿势和其他数据的 RGB-D 传感器流
    RGB-D传感器流(*sens):压缩二进制格式,
    包含每帧的颜色、深度、相机姿势和其他数据。
    其中RGB图像大小为1296×968,深度图像大小为640×480
|-- <scanId>_vh_clean.ply
    High quality reconstructed mesh
    高质量重建网格
|-- <scanId>_vh_clean_2.ply
    Cleaned and decimated mesh for semantic annotations
    清理和抽取语义注释的网格
|-- <scanId>_vh_clean_2.0.010000.segs.json
    Over-segmentation of annotation mesh
    注释网格的过分割
|-- <scanId>.aggregation.json, <scanId>_vh_clean.aggregation.json
    Aggregated instance-level semantic annotations on lo-res, hi-res meshes, respectively
    分别在低分辨率、高分辨率网格上聚合实例级语义注释
|-- <scanId>_vh_clean_2.0.010000.segs.json, <scanId>_vh_clean.segs.json
    Over-segmentation of lo-res, hi-res meshes, respectively (referenced by aggregated semantic annotations)
    分别对低分辨率、高分辨率网格进行过分割(由聚合语义注释引用)
|-- <scanId>_vh_clean_2.labels.ply
    Visualization of aggregated semantic segmentation; colored by nyu40 labels (see img/legend; ply property 'label' denotes the nyu40 label id)
    聚合语义分割的可视化;由 nyu40 标签着色(参见 img/图例;ply 属性“label”表示 nyu40 标签 id)
|-- <scanId>_2d-label.zip
    Raw 2d projections of aggregated annotation labels as 16-bit pngs with ScanNet label ids
    聚合注释标签的原始 2d 投影为具有 ScanNet 标签 id16 位 png
|-- <scanId>_2d-instance.zip
    Raw 2d projections of aggregated annotation instances as 8-bit pngs
    聚合注释实例的原始二维投影为 8 位 png
|-- <scanId>_2d-label-filt.zip
    Filtered 2d projections of aggregated annotation labels as 16-bit pngs with ScanNet label ids
    将聚合注释标签的 2d 投影过滤为具有 ScanNet 标签 id16 位 png
|-- <scanId>_2d-instance-filt.zip
    Filtered 2d projections of aggregated annotation instances as 8-bit pngs
    将聚合注释实例的 2d 投影过滤为 8 位 png

数据格式和可视化代码

例如这种Surface mesh segmentation file文件*.segs.json

./ContrastiveSceneContexts-main/downstream/semseg/datasets/preprocessing/scannet/SCANNET_DATA/scans/scene0000_00/scene0000_00_vh_clean_2.0.010000.segs.json

{
"params": {//分割参数
	"kThresh": "0.0001",
	"segMinVerts": "20",
	"minPoints": "750",
	"maxPoints": "30000",
	"thinThresh": "0.05",
	"flatThresh": "0.001",
	"minLength": "0.02",
	"maxLength": "1"
}
,
"sceneId": "scene0000_00",
"segIndices":[....]//网格段的每顶点索引
}

语义标注文件*.aggregation.json

ContrastiveSceneContexts-main/downstream/semseg/datasets/preprocessing/scannet/SCANNET_DATA/scans/scene0000_00/scene0000_00.aggregation.json

{
"sceneId": "scannet.scene0000_00",//标注场景的ID
"appId": "Aggregator.v2",// 用于创建注释的工具的版本
"segGroups": [
	{
	"id": 0,
	"objectId": 0,
	"segments": [43652,43832,43632,53294,44062,44013,44158,53070,53173,53253],
	"label": "window"
	},{},{}....
    ],
"segmentsFile": "scannet.scene0000_00_vh_clean_2.0.010000.segs.json"}//引用的 *.segs.json 分割文件的id

BenchmarkScripts/util_3d.py gives examples to parsing the semantic instance information from the *.segs.json, *.aggregation.json, and *_vh_clean_2.ply mesh file, with example semantic segmentation visualization(语义分割可视化后续可以尝试) in BenchmarkScripts/3d_helpers/visualize_labels_on_mesh.py.

数据集下载方式

https://blog.csdn.net/qq_25763027/article/details/126112421

https://blog.csdn.net/qq_35781447/article/details/115078283#comments_24548052

这两篇文章的博主把下载过程讲的很详细,我也是参考他的下载方式进行下载的,超级推荐。当然如果都不行的话就只能给官方写邮件获取下载数据的python代码(这条路我没试过)

有了下载的代码就可以使用命令, -o为文件下载路径,-type为下载哪种文件类型。

python download_scannet.py -o path(存放数据集的路径) --type _vh_clean_2.ply
python download_scannet.py -o path(存放数据集的) --type _vh_clean_2.label.ply
#python3 download-scannet.py -o scannet/ --type  _vh_clean_2.labels.ply
python download_scannet.py -o path(存放数据集的) --type _vh_clean_2.0.010000.segs.json
python download_scannet.py -o path(存放数据集的) --type .aggregation.json

下载后的文件目录结构文章来源地址https://www.toymoban.com/news/detail-482879.html

├── scannet
│   ├── scans
│   │   ├── [scene_id]									
│   │   │   ├── [scene_id].aggregation.json
│   │   │   ├── [scene_id]_vh_clean_2.0.010000.segs.json
│   │   │   ├── [scene_id]_vh_clean_2.labels.ply
│   │   │   ├── [scene_id]_vh_clean_2.ply
│   ├── scans_test
│   │   ├── [scene_id]								
│   │   │   ├── [scene_id]_vh_clean_2.ply
│   ├── scannetv2-labels.combined.tsv

到了这里,关于scannet数据集简介和下载的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • IDEFICS 简介: 最先进视觉语言模型的开源复现

    我们很高兴发布 IDEFICS ( I mage-aware D ecoder E nhanced à la F lamingo with I ninterleaved C ross-attention S ) 这一开放视觉语言模型。IDEFICS 基于 Flamingo,Flamingo 作为最先进的视觉语言模型,最初由 DeepMind 开发,但目前尚未公开发布。与 GPT-4 类似,该模型接受任意图像和文本输入序列并生成

    2024年02月09日
    浏览(94)
  • 【MySQL】MySQL PHP 语法,PHP MySQL 简介,查询,下载 MySQL 数据库, SQL 教程

    作者简介: 辭七七,目前大一,正在学习C/C++,Java,Python等 作者主页: 七七的个人主页 文章收录专栏: 七七的闲谈 欢迎大家点赞 👍 收藏 ⭐ 加关注哦!💖💖 MySQL 可应用于多种语言,包括 PERL, C, C++, JAVA 和 PHP,在这些语言中,MySQL 在 PHP 的 web 开发中是应用最广泛。 我们

    2024年02月11日
    浏览(58)
  • LLMs之dataset:大语言模型LLMs相关开源数据集的简介、下载、使用方法之详细攻略

    Dataset之NLP之LLMs:大模型核心技术—大语言模型LLMs相关开源数据集的简介(三类数据集【预训练数据/微调数据/测试数据】)、下载(国内外开源数据集平台总结)、使用方法之详细攻略 目录 相关文章

    2024年02月10日
    浏览(59)
  • 索尼慌了?微软687亿美元收购暴雪,为元宇宙做打算?

    1月18日, 微软同意以687亿美元收购视频游戏制造商动视暴雪,这成为微软公司有史以来最大的一笔交易, 这项交易也是微软历来的最大手笔收购,交易完成后,微软将成为按营收计算的全球第三大游戏公司,仅次于腾讯和索尼。   爱过、骂过,谁的青春没有动视暴雪? 稍有

    2024年02月04日
    浏览(42)
  • 最强无监督单目深度估计Baseline--MonoViT--简介与代码复现

       单目深度估计是指,借助于深度神经网络,从单张输入视图中推理场景的稠密深度信息;该技术可以广泛用于自动驾驶、虚拟现实、增强现实等依赖于三维场景感知理解的领域,同时也可以为其他视觉任务提供多模态深度信息,辅助其他任务感知的精确性。   由于不需要

    2024年02月03日
    浏览(125)
  • Go1.21 速览:Go 终于打算进一步支持 WebAssembly 了。。。

    大家好,我是煎鱼。 之前写过一篇关于 Go WebAssembly 的相关文章 《一分钟搞明白!快速掌握 Go WebAssembly》,今天带来一则新消息。 想着 Go 过去了那么多年了,只在 Go1.11 支持了 WebAssembly1.0 的部分功能(js/syscall),还没有完整的支持 WebAssembly System Interface(WASI)。这可真的是

    2024年02月05日
    浏览(35)
  • 论文解读 | ScanNet:室内场景的丰富注释3D重建

    原创 | 文 BFT机器人  大型的、有标记的数据集的可用性是为了利用做有监督的深度学习方法的一个关键要求。但是在RGB-D场景理解的背景下,可用的数据非常少,通常是当前的数据集覆盖了一小范围的场景视图,并且具有有限的语义注释。 为了解决这个问题,本文介绍了一个

    2024年02月11日
    浏览(45)
  • 【大数据】Hadoop-3.3.4完全分布式安装(包含VMware16和Ubuntu22的下载安装及配置)、搭建、配置教程,以及Hadoop基础简介

    注:本篇文章主要涉及到: HDFS (分布式文件系统)、 YARN (资源管理和调度框架)、以及 MapReduce (离线计算)。 以下就是本篇文章所采用的的架构 。 (1)HDFS架构简述 HDFS架构图 注:上述的master、slave1、slave2均是主机名(结点名),可以和本篇文章不一致,但下面所有涉

    2023年04月17日
    浏览(99)
  • 若依 4.7.6 版本 任意文件下载漏洞(审计复现)

    https://mp.weixin.qq.com/s/IrqLp2Z3c941NiN0fFcDMA 这是一个最新版漏洞 先说审计后结论,要实现 任意文件下载 漏洞,需要执行3次请求(Tips:需要先登录RouYi) 1、新增计划任务 2、执行新增的计划任务 3、访问下载文件接口 参考文章里给出 POC 1 和 POC 2(没有给出内部实现关键信息,尝

    2023年04月11日
    浏览(43)
  • 最近不知道写啥,打算整理点儿关于钱币的文章,也转载点儿别人的技术文章,毕竟,洒家还是干技术滴嘛...

    最近开始整理之前陆陆续续买的乱七八糟的东西了,现在一堆东西还乱扔着呢~~ 先整理了一套大五帝钱还有下面这套清五帝。 清五帝钱一套: 27+宝泉局顺治通宝,铁壳锈 27.5康熙通宝满汉同 26.5宝泉局雍正通宝 三离划 26(卡)宝云局乾隆通宝 大耳隆 26+宝云局嘉庆通宝 大吉部

    2024年02月09日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包