使用mediapipe检测实时视频中的人手21点坐标

这篇具有很好参考价值的文章主要介绍了使用mediapipe检测实时视频中的人手21点坐标。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

上期教程,我们分享了如何使用mediapipe进行图片的人手21点坐标检测,本期我们实现一下mediapipe的实时视频人手21点检测。

使用mediapipe检测实时视频中的人手21点坐标

 STATIC_IMAGE_MODE:

如果设置为false,则解决方案会将输入图像视为视频流。它将尝试在第一个输入图像中检测手,并在成功检测后进一步定位手的地标。在随后的图像中,一旦检测到所有手并且定位了相应的手地标,它便会简单地跟踪这些地标,而无需调用另一次检测,直到失去对任何手的跟踪为止。这减少了等待时间,是处理视频帧的理想选择。如果设置为true,则手部检测将在每个输入图像上运行,非常适合处理一批静态的,可能不相关的图像。默认为false。

MAX_NUM_HANDS:

要检测的最大手数。默认为2。

MIN_DETECTION_CONFIDENCE:

[0.0, 1.0]来自手部检测模型的最小置信度值()被认为是成功的检测。默认为0.5。

MIN_TRACKING_CONFIDENCE:

[0.0, 1.0]来自地标跟踪模型的最小置信度值()将被视为已成功跟踪的手部地标,否则将在下一个输入图像上自动调用手部检测。将其设置为更高的值可以提高解决方案的健壮性,但代价是更高的延迟。如果为true,则忽略操作,其中手检测仅在每个图像上运行。默认为0.5。

MULTI_HAND_LANDMARKS:

检测/跟踪的手,其中每个手被表示为21层文章来源地址https://www.toymoban.com/news/detail-499337.html

到了这里,关于使用mediapipe检测实时视频中的人手21点坐标的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包