介绍动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集

这篇具有很好参考价值的文章主要介绍了介绍动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集

(还包括AUTH UAV手势数据集:NTU 4级)
本页介绍两个数据集:“NTU RGB+D”和“NTU RGB+D 120”。
“NTU RGB+D”包含60个动作类和56,880个视频样本。
“NTU RGB+D 120”扩展了“NTU RGB+D”,增加了另外60个类和另外57,600个视频样本,即“NTU RGB+D 120”总共有120个类和114,480个样本。
这两个数据集都包含每个样本的 RGB 视频、深度图序列、3D 骨骼数据和红外 (IR) 视频。每个数据集由三个 Kinect V2 相机同时捕获。
RGB视频的分辨率为1920x1080,深度图和红外视频均为512x424,3D骨骼数据包含每帧3个身体关节的25D坐标。

  1. 行动类
    这两个数据集中的动作分为三大类:日常行动、相互行动和医疗状况,如下表所示。
    注意:从 A1 到 A60 标记的操作包含在“NTU RGB+D”中,从 A1 到 A120 标记的操作包含在“NTU RGB+D 120”中。

介绍动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集
介绍动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集
介绍动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集
介绍动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集
6. 使用条款和条件
数据集仅供学术研究之用,教育或研究机构的研究人员可免费用于非商业目的。

这两个数据集的使用受以下条款和条件的约束: • 未经 ROSE 实验室明确许可,以下任何行为都将被视为非法:
从该数据集重新分发、派生或生成新数据集,以及以任何方式或形式(部分或全部)将任何这些数据集用于商业用途。
• 为了保护隐私,任何这些数据集中所有主题的图像只允许在学术出版物和演示文稿中进行演示。
• “NTU RGB+D”和“NTU RGB+D 120”动作识别数据集的所有用户同意对ROSE实验室及其管理人员、员工和代理商进行赔偿、辩护并使其免受任何和所有损失、费用和损害。

如果有兴趣,研究人员可以注册一个帐户,提交申请表并接受发布协议。我们将验证您的请求并批准下载数据集。登录ID可用于“NTU RGB+D”和“NTU RGB+D 120”。

  1. 相关出版物
    所有使用“NTU RGB+D”或“NTU RGB+D 120”动作识别数据库或任何派生数据集(见第8节)的出版物都应包括以下确认:“(部分)本文中的研究使用了南洋理工大学ROSE实验室提供的NTU RGB + D(或NTU RGB + D 120)动作识别数据集, 新加坡。

此外,这些出版物应引用以下论文:

Amir Shahroudy, Jun Liu, Tian-Tsong Ng, Gang Wang, “NTU RGB+D: A Large Scale Dataset for 3D Human Activity Analysis”, IEEE Conference on Computer Vision and Pattern Recognition (CVPR), 2016 [PDF].
Jun Liu,Amir Shahroudy,Mauricio Perez,Gang Wang,Ling-Yu Duan,Alex C. Kot,“NTU RGB + D 120:3D人类活动理解的大规模基准”,IEEE Transactions on Pattern Analysis and Machine Intelligence(TPAMI),2019。 [PDF]。

关于RGB+D动作识别的一些相关著作:

Amir Shahroudy, Tian-Tsong Ng, Qingxiong Yang, Gang Wang, “深度视频中动作识别的多模态多部分学习”, TPAMI, 2016.
Amir Shahroudy,Tian-Tsong Ng,Yihong Gong,Gang Wang,“RGB + D视频中动作识别的深度多模态特征分析”TPAMI,2018。
Amir Shahroudy, Gang Wang, Tian Tsong Ng, “RGB-D 序列中动作识别的多模态特征融合”, ISCCSP, 2014.
刘军,Amir Shahroudy,徐东,王刚,“具有3D人类行为识别信任门的时空LSTM”,ECCV,2016。
刘军, 王刚, 胡平, 段玲宇, Alex C. Kot, “用于 3D 动作识别的全局上下文感知注意力 LSTM 网络”, CVPR, 2017.
刘军,Amir Shahroudy,徐东,Alex C. Kot,王刚,“基于骨架的动作识别使用时空LSTM网络与信任门”,TPAMI,2018。
Jun Liu, Gang Wang, Ling-Yu Duan, Kamila Abdiyeva, Alex C. Kot, “基于骨骼的人类行为识别与全球上下文感知注意LSTM网络”, TIP, 2018.
刘军,Amir Shahroudy,王刚,段玲宇,Alex C. Kot,“基于骨骼的在线动作预测使用尺度选择网络”,TPAMI,2019。
杨思源、刘军、卢世建、二孟华和Alex Kot,“基于多阶特征分析的手势识别和3D手部姿势估计的协作学习”,ECCV 2020。
杨思源、刘军、卢世建、二梦华和 Alex Kot,“用于无监督 3D 动作表示学习的骨架云着色”,ICCV 2021。

  1. 基于NTU RGB+D数据集的衍生作品
    以下是一些派生自或部分使用NTU RGB + D数据集的数据集:

8.1. LSMB19:用于在连续运动数据流中搜索和注释的大规模运动基准 (http://mocap.fi.muni.cz/LSMB)。

J. Sedmidubsky,P. Elias,P. Zezula,“连续人类骨骼序列中的基准搜索和注释”,ICMR,2019 年。

8.2. AUTH 无人机手势数据集 (https://aiia.csd.auth.gr/auth-uav-gesture-dataset/ ).

F. Patrona,I. Mademlis,I. Pitas,“用于自主无人机处理的手势语言概述”,在空中机器人系统与环境物理相互作用研讨会 (AIRPHARO) 的论文集,2021 年。
您可以使用相同的申请表请求NTU RGB+D数据集的相关4类子数据集,并从下载页面的第3.0节下载

参考资料

https://rose1.ntu.edu.sg/dataset/actionRecognition/

代码参考:
https://github.com/shahroudy/NTURGB-D
https://github.com/kchengiva/Shift-GCN
https://github.com/Hrener/3D-Action-recognition
https://blog.csdn.net/Hren0412/article/details/89495678文章来源地址https://www.toymoban.com/news/detail-441719.html

到了这里,关于介绍动作识别数据集:“NTU RGB+D”数据集和“NTU RGB+D 120”数据集的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 03- 目标检测数据集和标注工具介绍 (目标检测)

    要点: 常用数据集和标注工具 标注工具 PPOCRLabel github地址:paddleocrlabel 参考文档:目标检测简介 - 知乎 1. PASCAL VOC VOC数据集 是目标检测经常用的一个数据集,自2005年起每年举办一次比赛,最开始只有4类,到2007年扩充为 20个类 ,共有两个常用的版本: 2007和2012 。学术界常

    2024年02月07日
    浏览(38)
  • 跌倒检测和识别2:YOLOv5实现跌倒检测(含跌倒检测数据集和训练代码)

    目录 跌倒检测和识别2:YOLOv5实现跌倒检测(含跌倒检测数据集和训练代码) 1. 前言 2. 跌倒检测数据集说明 (1)跌倒检测数据集 (2)自定义数据集 3. 基于YOLOv5的跌倒检测模型训练 (1)YOLOv5安装  (2)准备Train和Test数据 (3)配置数据文件 (4)配置模型文件 (5)重新聚类

    2023年04月27日
    浏览(41)
  • 基于opencv与机器学习的摄像头实时识别数字!附带完整的代码、数据集和训练模型!!

    使用摄像头实时识别数字算是目标检测任务,总体上分为两步,第一步是检测到数字卡片的位置,第二步是对检测到的数字卡片进行分类以确定其是哪个数字。在第一步中主要涉及opencv的相关功能,第二步则使用机器学习的方式进行分类。 重点操作是使用轮廓查找函数,获取

    2024年02月15日
    浏览(62)
  • python姿态检测实现多人多姿态识别python行为识别openpose行为骨骼框架检测动作识别动作检测行为动作分类

    https://download.csdn.net/download/babyai996/88741189 https://download.csdn.net/download/babyai996/88741257  https://download.csdn.net/download/babyai996/88741262  https://download.csdn.net/download/babyai996/88741266  https://download.csdn.net/download/babyai996/88741272  https://download.csdn.net/download/babyai996/88741274  视频演示: python行为

    2023年04月20日
    浏览(47)
  • 手势识别(二) - 静态手势动作识别

    我公司的科室开始在公众号上规划一些对外的技术文章了,包括实战项目、模型优化、端侧部署和一些深度学习任务基础知识,而我负责人体图象相关技术这一系列文章,偶尔也会出一些应用/代码解读等相关的文章。 文章在同步发布至公众号和博客,顺带做一波宣传。有兴

    2024年02月04日
    浏览(55)
  • mediapipe 实现动作识别

    windows 10 64bit mediapipe 0.8.10.1 本文使用 google 家的 mediapipe 机器学习框架,结合 opencv 和 numpy ,实现了一个实时识别 站立 、 坐下 、 走动 、 挥手 共4个动作的简单系统。 mediapipe 能做的事情非常多,感兴趣的童鞋可以去研究研究。 首先,需要安装 mediapipe 接着,来看代码,部分

    2024年02月11日
    浏览(49)
  • react之react-redux的介绍、基本使用、获取状态、分发动作、数据流、reducer的分离与合并等

    官网地址 React 和 Redux 是两个独立的库,两者之间职责独立。因此,为了实现在 React 中使用 Redux 进行状态管理 ,就需要一种机制,将这两个独立的库关联在一起。这时候就用到 React-Redux 这个绑定库了 作用:为 React 接入 Redux,实现在 React 中使用 Redux 进行状态管理。 react-r

    2024年02月11日
    浏览(51)
  • Python——基于pytorch的3D视频动作识别

            pytorch初接触——唐宇迪教教程的3D卷积视频动作识别。接触之后,发现pytorch比tensorflow的用户体验要好一点点,TF由于兼容性问题,从其他地方拿到代码,第一感觉就是跑不起来,很多代码都是基于TF1.x写的,跟2.x一堆不兼容问题。由此开始研究pytorch,后面用的顺手

    2023年04月08日
    浏览(35)
  • 基于opencv与mediapipe的民族舞舞蹈动作识别

    需要项目的请关注、私信 Opencv(Open Source Computer Vision Library)是一个基于开源发行的跨平台计算机视觉库,它实现了图像处理和计算机视觉方面的很多通用算法,已成为计算机视觉领域最有力的研究工具。在这里我们要区分两个概念:图像处理和计算机视觉的区别:图像处理

    2024年02月10日
    浏览(55)
  • 基于C3D网络的视频分析与动作识别

    卷积神经网络(CNN)被广泛应用于计算机视觉中,包括分类、检测、分割等任务。这些任务一般都是针对图像进行的,使用的是二维卷积(即卷积核的维度为二维)。而对于基于视频分析的问题,2D convolution不能很好得捕获时序上的信息,因此3D卷积就被提出来了。 3D卷积 最

    2023年04月08日
    浏览(93)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包