基于mediapipe的动作捕捉和unity的人物模型驱动

这篇具有很好参考价值的文章主要介绍了基于mediapipe的动作捕捉和unity的人物模型驱动。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

实习的时候做的一个虚拟动作捕捉和人物驱动的项目,里面可分析的知识还是比较多的,主要是我还没用过unity,这软件花了半个月才熟悉起来。先看一下人物驱动的效果,可能看着有些卡,第一是我开了那个屏幕录像,还有一个是加了手指部分关键点的识别,所以帧率就下来了。在我笔记本电脑上跑的时候就还好。可以看到手指部分的细节捕捉的还可以。这个只是初步做了简单的优化时候的展示。

mediapipe unity,unity,深度学习,计算机视觉,人机交互

下面这个是对视频的动作捕捉(至于为什么手指没有动作,是因为mediapipe没有捕捉到手指的细节,也就是手离镜头太远了),可以看到整个模型的动作还是比较流畅的,这里面做了更近一步非常细致的优化,又引入了质心,可以有效的缓解抖动的问题,对关键点用卡尔曼滤波法做平滑的处理(用其他的滤波法也可以,比如卡euro filter,Savgol过滤器,指数滑动均值滤波器),人体的骨骼不能任意角度的旋转,所以要对模型的骨骼的欧拉角进行限制

mediapipe unity,unity,深度学习,计算机视觉,人机交互

另外,要想驱动人体的动画模型,还需要对检测到的关键点做尺度的变换,要变换到模型骨骼的尺度,就像每个人手有长有短一样,这些点要一一对应起来才能完美的驱动人体模型。人物模型的驱动差不多就这些难点。

mediapipe的介绍:

用到的人体关键点检测的算法是Google开发的基于深度学习的实时多媒体套件,汇集了人体、手部、人脸关键点追踪、物体检测、物体识别等多个流行的视觉任务的成果。整套 Mediapipe正如其名字,专门为便携设备上的多媒体应用设计,模型非常小,在笔记本手机上也能实时跑,跨平台、跨语言。

mediapipe实时性是没什么问题。但是是以牺牲了质量为代价的,这种关键点检测一般是用来做动作识别,类似于运动app跳绳计数、判定瑜伽动作标不标准这种。用单目视觉来做人物模型的驱动,总差点意思。我们平时用的摄像头是二维的,动作捕捉是三维的(例如深度摄像机就有深度输出),或者从多个视角,也能重建出三维的关键点。然而对于单目图像的关键点,各个关键点到相机深度。

Mediapipe Pose 能够预测一个相对深度,也就是各个关键点离相机的大致远近关系;人体各个部位的尺寸及比例是有先验的。因此mediapipe能估计一个大致的三维的人体姿态,它可以输出pose_world_landmark。不过这个world_landmark和图像的关键点并不一致,而且是以屁股为原点的,没有绝对位置。Mediapipe 既能输出2D图像关键点的坐标,又能输出3D的关键点坐标,我们只需要额外提供一个相机内参,用Perspective-n-Points算法去求解出3D关键点相对于相机的变换,相机内参不用精确,差不多就行。用solvePNP的结果并不能完美的投影,也就是结果和输入的人体动作对不齐,看了一个大佬的暴力做法直接保持z坐标不变,调整x,y使得投影结果和2D关键点一致。

这只是先大概的介绍一下,后续我还会出讲解,代码部分我后边整理好了会放出来,并且会详细的讲解这些难点部分。喜欢的后续可以关注一下!!!文章来源地址https://www.toymoban.com/news/detail-743102.html

到了这里,关于基于mediapipe的动作捕捉和unity的人物模型驱动的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包赞助服务器费用

相关文章

  • mediapipe单人动捕驱动unity“火柴人”

    mediapipe单人动捕驱动unity“火柴人”

    参考自基于mediapipe的动作捕捉和Unity的球棍模型同步_unity 动作捕捉_maxindemaxinde的博客-CSDN博客 在这篇博客中,作者标明了 资源下载: 链接:https://pan.baidu.com/s/1XBBWV1wCxyW0FyRTOtorkw?pwd=sbyq 提取码:sbyq 参考:https://www.youtube.com/watch?v=BtMs0ysTdkM 目录 一.技术介绍(mediapipe介绍) 2.应

    2024年02月06日
    浏览(21)
  • 论文复现--关于单视角动作捕捉工具箱--MMHuman3d的研究(基于Windows10和Linux18.04中配置)

    论文复现--关于单视角动作捕捉工具箱--MMHuman3d的研究(基于Windows10和Linux18.04中配置)

    分类:动作捕捉 github地址:https://github.com/open-mmlab/mmhuman3d 所需环境: Windows10,CUDA11.6,conda 4.13.0,Visual Studio 2017; Ubuntu18.04,conda22.9.0,CUDA11.4 注意: “Linux中的OpenMMlab全家桶的安装”是可以运行的 全家桶版本可以参考这部分 不是版本越新越好 ; “Windows10配置”仅讲述配

    2024年02月03日
    浏览(11)
  • 基于opencv+ImageAI+tensorflow的智能动漫人物识别系统——深度学习算法应用(含python、JS、模型源码)+数据集(一)

    基于opencv+ImageAI+tensorflow的智能动漫人物识别系统——深度学习算法应用(含python、JS、模型源码)+数据集(一)

    本项目通过爬虫技术获取图片,利用OpenCV库对图像进行处理,识别并切割出人物脸部,形成了一个用于训练的数据集。通过ImageAI进行训练,最终实现了对动漫人物的识别模型。同时,本项目还开发了一个线上Web应用,使得用户可以方便地体验和使用该模型。 首先,项目使用

    2024年02月04日
    浏览(10)
  • 基于opencv+ImageAI+tensorflow的智能动漫人物识别系统——深度学习算法应用(含python、JS、模型源码)+数据集(二)

    基于opencv+ImageAI+tensorflow的智能动漫人物识别系统——深度学习算法应用(含python、JS、模型源码)+数据集(二)

    本项目通过爬虫技术获取图片,利用OpenCV库对图像进行处理,识别并切割出人物脸部,形成了一个用于训练的数据集。通过ImageAI进行训练,最终实现了对动漫人物的识别模型。同时,本项目还开发了一个线上Web应用,使得用户可以方便地体验和使用该模型。 首先,项目使用

    2024年02月05日
    浏览(12)
  • mediapipe 实现动作识别

    mediapipe 实现动作识别

    windows 10 64bit mediapipe 0.8.10.1 本文使用 google 家的 mediapipe 机器学习框架,结合 opencv 和 numpy ,实现了一个实时识别 站立 、 坐下 、 走动 、 挥手 共4个动作的简单系统。 mediapipe 能做的事情非常多,感兴趣的童鞋可以去研究研究。 首先,需要安装 mediapipe 接着,来看代码,部分

    2024年02月11日
    浏览(10)
  • 挑选全身动作捕捉设备需要看哪几点?

    挑选全身动作捕捉设备需要看哪几点?

    随着数字化发展,虚拟数字人成为企业、品牌营销中不可或缺的一环,虚拟数字人可以通过全身动作捕捉设备,能够打破次元壁与用户实时互动。那要怎么挑选全身动作捕捉设备呢? 广州虚拟动力推出了旗舰版惯性动捕设备DreamsCap X1,一套全身动作捕捉设备套装,就包含了动

    2024年01月23日
    浏览(12)
  • Deepmotion: AI动作捕捉和3D身体追踪技术平台

    Deepmotion: AI动作捕捉和3D身体追踪技术平台

    【产品介绍】   Deepmotion是一家专注于使用AI技术进行动作捕捉和3D身体追踪的公司。自2014年成立以来,Deepmotion一直致力于让数字角色通过智能的动作技术变得栩栩如生。   Deepmotion提供了多种与动作数据相关的服务,其中最引人注目的是Animate 3D,这是一个可以让用户从视频

    2024年02月05日
    浏览(11)
  • 计算机视觉之手势、面部、姿势捕捉以Python Mediapipe为工具

    计算机视觉之手势、面部、姿势捕捉以Python Mediapipe为工具

    计算机视觉之手势、面部、姿势捕捉以 Python Mediapipe为工具 Mediapipe 是一个开源且强大的Python库,由Google开发和维护。它提供了丰富的工具和功能,用于处理实时多媒体数据。它可以帮助开发者快速构建各种视觉和音频处理应用,并允许他们灵活地定制和扩展库的功能。 Medi

    2024年02月05日
    浏览(9)
  • 基于深度强化学习的目标驱动型视觉导航泛化模型

    基于深度强化学习的目标驱动型视觉导航泛化模型

    参考论文《Towards Generalization in Target-Driven Visual Navigation by Using Deep Reinforcement Learning》   目标是仅使用视觉输入就能导航并到达用户指定目标的机器人,对于此类问题的解决办法一般有两种。 将经典导航系统与目标检测模块结合起来。 基于地图的导航算法或者SLAM系统与最

    2024年02月06日
    浏览(16)
  • 【姿态估计】MediaPipe部分solution(手势,人体姿态,面部动作)的用法

    【姿态估计】MediaPipe部分solution(手势,人体姿态,面部动作)的用法

    Mediapipe介绍 MediaPipe是个基于图形的跨平台框架,用于构建多模式应用的机器学习管道。 MediaPipe可在移动设备,工作站和服务器上跨平台运行,并支持移动GPU加速。使用MediaPipe,可以将应用的机器学习管道构建为模块化组件的图形。 MediaPipe专为机器学习从业者而设计包括研究

    2024年02月01日
    浏览(8)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包