MNN学习笔记(八):使用MNN推理Mediapipe模型

这篇具有很好参考价值的文章主要介绍了MNN学习笔记(八):使用MNN推理Mediapipe模型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1.项目说明

  • 最近需要用到一些mediapipe中的模型功能,于是尝试对mediapipe中的一些模型进行转换,并使用MNN进行推理;
  • 主要模型包括:图像分类、人脸检测及人脸关键点mesh、手掌检测及手势关键点、人体检测及人体关键点、图像嵌入特征向量、图像特征点检测及匹配模型;

2.一些效果:

MNN学习笔记(八):使用MNN推理Mediapipe模型,MNN,mnn,mediapipe-hand,mediapipe-face,mediapipe-body
MNN学习笔记(八):使用MNN推理Mediapipe模型,MNN,mnn,mediapipe-hand,mediapipe-face,mediapipe-body
MNN学习笔记(八):使用MNN推理Mediapipe模型,MNN,mnn,mediapipe-hand,mediapipe-face,mediapipe-body
MNN学习笔记(八):使用MNN推理Mediapipe模型,MNN,mnn,mediapipe-hand,mediapipe-face,mediapipe-body
MNN学习笔记(八):使用MNN推理Mediapipe模型,MNN,mnn,mediapipe-hand,mediapipe-face,mediapipe-body
MNN学习笔记(八):使用MNN推理Mediapipe模型,MNN,mnn,mediapipe-hand,mediapipe-face,mediapipe-body
MNN学习笔记(八):使用MNN推理Mediapipe模型,MNN,mnn,mediapipe-hand,mediapipe-face,mediapipe-body
MNN学习笔记(八):使用MNN推理Mediapipe模型,MNN,mnn,mediapipe-hand,mediapipe-face,mediapipe-body

3.项目开源地址

Mediapipe-MNN
欢迎大家体验并点star~文章来源地址https://www.toymoban.com/news/detail-661504.html

到了这里,关于MNN学习笔记(八):使用MNN推理Mediapipe模型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • AI大模型学习笔记之二:什么是 AI 大模型的训练和推理?

    在人工智能(AI)的领域中,我们经常听到 训练(Training) 和 推理(Inference) 这两个词汇,它们是构建强大 AI 模型的关键步骤。我们通过类比人类的学习过程来理解这两个概念,可以更加自然而生动地理解AI大模型的运作原理。 想象一下,当一个人类宝宝刚刚降临人间,还没

    2024年01月19日
    浏览(36)
  • PaddleSeg学习4——paddle模型使用TensorRT推理(c++)

    前文 PaddleSeg c++部署OCRNet+HRNet模型中的语义分割模型输出为 float32 类型,模型不含softmax和argmax处理,导致在项目应用过程中后处理耗时较高。 通过PaddleSeg/tools/export.py在网络末端增加softmax和argmax算子,解决应用中的后处理耗时问题。 参考文档PaddleSeg/docs/model_export_cn.md导出预测

    2024年01月16日
    浏览(39)
  • mediapipe——人体姿势关节点检测(pose模块) 学习笔记(全)

    官方文档:https://google.github.io/mediapipe/ 1.1 解决方案的API,参数 API/参数 说明 STATIC_IMAGE_MOD 默认为 False ,将输入图像视为视频流。它将尝试在第一张图像中检测最突出的人,并在成功检测后进一步定位姿势地标。在随后的图像中,它只是简单地跟踪那些地标,而不会调用另一

    2024年02月05日
    浏览(54)
  • 论文笔记 CoT:提示+推理+大模型=思维链提示

    提示+推理+大模型:CoT 思维链提示 来源 Google Brain 论文:Chain-of-Thought Prompting Elicits Reasoning in Large Language Models 一、摘要 本文探讨了生成思想链一系列中间推理步骤如何显著提高大型语言模型执行复杂推理的能力。特别是,我们展示了这种推理能力是如何通过一种称为思维链

    2024年02月03日
    浏览(40)
  • 使用 MediaPipe 轻松实现设备端机器学习

    MediaPipe是由Google开发的开源机器学习框架,旨在简化计算机视觉和媒体处理任务的开发。它提供了一种可扩展的方法来处理视觉数据,包括图像和视频,并可以在多种平台上运行,包括Android、iOS、Linux和Windows。以下是关于MediaPipe的详细介绍: 多用途的机器学习框架 : Media

    2024年02月09日
    浏览(32)
  • [论文笔记] 大模型gpu机器推理测速踩坑 (llama/gpt类)

    cpu没报错,换gpu就报错。以下是一些踩坑: 坑1:要指定gpu,可以在import torch之前指定gpu。 报错: RuntimeError(\\\'Expected all tensors to be on the same device, but found at least two devices, cuda:6 and cuda:0! (when checking argument for argument index in method wrapper_CUDA__index_select)\\\') 坑2:model和input_ids都需要 .

    2024年02月03日
    浏览(52)
  • AIGC学习笔记——CLIP详解加推理

    clip论文地址:https://arxiv.org/pdf/2103.00020.pdf clip代码地址:https://github.com/openai/CLIP 小辉问:能不能解释一下zero-shot? 小G答:零次学习(Zero-Shot Learning,简称ZSL)假设斑马是未见过的类别,但根据描述外形和马相似、有类似老虎的条纹、具有熊猫相似的颜色,通过这些描述推理出

    2024年03月10日
    浏览(50)
  • 深度学习模型的参数、计算量和推理速度统计

    在没有过拟合的情况下,相同模型结构下,一般模型的参数量和计算量与最终的性能成正比,在比较不同模型性能时,最好能保持模型参数量和计算量在相同水平下,因此相应参数的统计很重要。这里只进行理论计算,最终的效果(内存和速度)还和网络结构,代码实现方式

    2024年01月18日
    浏览(39)
  • HugggingFace 推理 API、推理端点和推理空间相关模型部署和使用以及介绍

    HugggingFace 推理 API、推理端点和推理空间相关模型部署和使用以及介绍。 Hugging Face是一家开源模型库公司。 2023年5月10日,Hugging Face宣布C轮1亿美元融资,由Lux Capital领投,红杉资本、Coatue、Betaworks、NBA球星Kevin Durant等跟投,其估值增长到了20亿美元。 2023年5月16日,Hugging Fac

    2024年01月19日
    浏览(42)
  • LLM大模型推理加速 vLLM;docker推理大模型;Qwen vLLM使用案例;模型生成速度吞吐量计算

    参考: https://github.com/vllm-project/vllm https://zhuanlan.zhihu.com/p/645732302 https://vllm.readthedocs.io/en/latest/getting_started/quickstart.html ##文档 这里使用的cuda版本是11.4,tesla T4卡 加速原理: PagedAttention,主要是利用kv缓存 注意:用最新的qwen 7B v1.1版本的话,vllm要升级到最新0.2.0才可以(http

    2024年01月21日
    浏览(106)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包