快速解决深度学习推理过程cuda或tensorRT推理速度变慢的办法【亲测有效】

这篇具有很好参考价值的文章主要介绍了快速解决深度学习推理过程cuda或tensorRT推理速度变慢的办法【亲测有效】。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

各位朋友,好久不见,距离上一次更博已经过去三月有余。这段时间里博主基于LabVIEW探索开发了一些工具包,包括OpenVIN工具包、TensoRT工具包以及一键训练工具包,这几天会整理一下分享给大家,今天要和大家分享的是好多朋友私信问我的深度学习推理过程中cuda或tensorRT变慢的问题。

一、场景再现

场景一

以yolov5为例,为了节省开销,深度学习模型导入后,相机实时抓图,条件触发推理检测,也就是只有满足某个条件,才进行推理检测。在该场景下,发现使用CUDA加速推理检测的速度竟然比使用CPU实时循环抓图检测的速度都要慢,如下图所示,分别为使用CPU实现加速推理,使用CUDA实现加速推理,条件触发使用CUDA实现加速推理所用时间(同一个程序在同一个电脑检测相同场景物体)。

  • 使用CPU实现实时物体检测,检测一帧大概68ms
    tensorrt 推理,LabVIEW深度学习工具包,人工智能,YOLO,scikit-learn,视觉检测,深度学习
  • 使用CUDA实现实时物体检测,检测一帧大概18ms
    tensorrt 推理,LabVIEW深度学习工具包,人工智能,YOLO,scikit-learn,视觉检测,深度学习
  • 使用CUDA实现实时物体检测,但选择条件触发进行检测,检测一帧大概100多ms
    tensorrt 推理,LabVIEW深度学习工具包,人工智能,YOLO,scikit-learn,视觉检测,深度学习

场景二

依旧以yolov5为例,同一个程序在同一台电脑上使用同一个相机相机进行实时采集并检测的过程中,相机设置不同FPS,CUDA或者TensoRT加速推理的速度不同,相机FPS越高,CUDA或者TensoRT推理的速度越快,相反,相机FPS越低,CUDA或者TensoRT推理的速度越慢。

二、原因分析

摄像头速度或者采集到的图片输送速度跟不上推理速度,导致cuda"偷懒",从而使得整个推理变慢。那我们该如何解决cuda或tensorRT推理速度变慢呢?设置”显卡频率“。

三、解决办法

第1步:打开Nvidia控制面板,首选图形处理器里面选“高性能Nvidia处理器”

tensorrt 推理,LabVIEW深度学习工具包,人工智能,YOLO,scikit-learn,视觉检测,深度学习

第2步:低延时模式选“超高”,“电源管理模式”选“最高性能优先”。

tensorrt 推理,LabVIEW深度学习工具包,人工智能,YOLO,scikit-learn,视觉检测,深度学习
tensorrt 推理,LabVIEW深度学习工具包,人工智能,YOLO,scikit-learn,视觉检测,深度学习

第3步:管理员模式打开cmd,输入nvidia-smi -q -d SUPPORTED_CLOCKS

tensorrt 推理,LabVIEW深度学习工具包,人工智能,YOLO,scikit-learn,视觉检测,深度学习

第4步:nvidia-smi -lgc "显卡频率”,其中显卡频率设置为第一步中获取的最大值,如博主电脑显卡频率最大值为2100,则输入如下:

tensorrt 推理,LabVIEW深度学习工具包,人工智能,YOLO,scikit-learn,视觉检测,深度学习

第5步:重启电脑,打开相关LabVIEW程序,即可解决上述所说的深度学习推理过程cuda或tensorRT推理速度变慢

注:如要恢复原来状态,cmd里输入:nvidia-smi -rgc,nvidia控制面板的选项调整到原来状态并重启电脑!

总结

以上就是今天要给大家分享的内容。如果有问题可以在评论区里讨论。觉得内容不错,可点赞收藏哦,如您想要探讨更多关于LabVIEW与人工智能技术,欢迎加入我们的技术交流群。

如果文章对你有帮助,欢迎✌关注、👍点赞、✌收藏、👍订阅专栏文章来源地址https://www.toymoban.com/news/detail-707033.html

到了这里,关于快速解决深度学习推理过程cuda或tensorRT推理速度变慢的办法【亲测有效】的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • CUDA11.1、cuDNN8.6.0、Tensorrt8.5.3,ubuntu20.04安装过程记录

    CUD11.1 下载地址:CUDA Toolkit Archive | NVIDIA Developer  安装: 对于不是sudo用户,可以不执行sudo,不过没办法装到/usr/local/,可以装到你有权限的文件夹目录。 装完后,需要增加环境路径到~/.bashrc并source  记得source ~/.bashrc使得环境生效 cuDNN8.6.0,这个版本我是根据我需要安装的T

    2024年02月15日
    浏览(33)
  • 机器学习笔记 - windows基于TensorRT的UNet推理部署

            NVIDIA TensorRT是一个用于高性能深度学习推理的平台。TensorRT适用于使用CUDA平台的所有NVIDIA GPU。所以如果需要基于TensorRT部署,至少需要一个NVIDIA显卡,算力5.0以上,比Maxwell更新的架构,可以参考下表。 CUDA GPUs - Compute Capability | NVIDIA Developer https://developer.nvidia.com

    2024年02月05日
    浏览(27)
  • PaddleSeg学习4——paddle模型使用TensorRT推理(c++)

    前文 PaddleSeg c++部署OCRNet+HRNet模型中的语义分割模型输出为 float32 类型,模型不含softmax和argmax处理,导致在项目应用过程中后处理耗时较高。 通过PaddleSeg/tools/export.py在网络末端增加softmax和argmax算子,解决应用中的后处理耗时问题。 参考文档PaddleSeg/docs/model_export_cn.md导出预测

    2024年01月16日
    浏览(31)
  • Ubuntu20.04下CUDA11.8、cuDNN8.6.0、TensorRT8.5.3.1的配置过程

    系统设置-软件和更新-附加驱动-选择NVIDIA驱动-应用更改。 NVIDIA官网CUDA下载页面下载CUDA11.8,按步骤进行安装,注意在安装CUDA的时候取消驱动安装这个选项。 安装完后配置环境变量,sudo gedit ~/.bashrc,添加: export PATH=$PATH:/usr/local/cuda-11.8/bin export LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/us

    2024年02月11日
    浏览(45)
  • 【新手流程】1小时解决Anaconda+Cuda+Cudnn+Pytorch+Pycharm深度学习环境配置

    1、安装Anaconda 2、安装Cuda+Cudnn 3、安装Pytorch 4、安装Pycharm 5、配置Pycharm环境 点击进入Anaconda官网👉: Anaconda.com官网 https://www.anaconda.com/download/ 如果下载速度太慢可以使用这个镜像链接: Index of /anaconda/archive/ | 清华大学开源软件镜像站 | Tsinghua Open Source Mirror Index of /anaconda/a

    2024年02月16日
    浏览(58)
  • 深度学习:Pytorch安装的torch与torchvision的cuda版本冲突问题与解决历程记录

    今天不小心将conda环境中的一个pytorch环境中的torch包给搞混了,将其更新了一下,发生了一些问题: 当时运行了一下这个代码:  pip install torchvision --upgrade 导致了环境中包的混乱: 只能说欲哭无泪,当时这个 pytorch环境中我是安装的CUDA11.8的版本应该,后来安装了cpu版本的将

    2024年02月20日
    浏览(36)
  • TextBrewer:融合并改进了NLP和CV中的多种知识蒸馏技术、提供便捷快速的知识蒸馏框架、提升模型的推理速度,减少内存占用

    TextBrewer 是一个基于PyTorch的、为实现NLP中的 知识蒸馏 任务而设计的工具包, 融合并改进了NLP和CV中的多种知识蒸馏技术,提供便捷快速的知识蒸馏框架,用于以较低的性能损失压缩神经网络模型的大小,提升模型的推理速度,减少内存占用。 TextBrewer 为NLP中的知识蒸馏任务

    2024年02月13日
    浏览(33)
  • 解决Stable Diffusion TensorRT转换模型报错cpu and cuda:0! (when checking argument for argume

    记录Stable Diffusion webUI TensorRT插件使用过程的报错: RuntimeError: Expected all tensors to be on the same device, but found at least two devices, cpu and cuda:0! (when checking argument for argument mat1 in method wrapper_CUDA_addmm) 拷贝下面的代码覆盖extensionsstable-diffusion-webui-tensorrt里的export_onnx.py文件,将模型和相

    2024年02月04日
    浏览(22)
  • 深度学习模型部署综述(ONNX/NCNN/OpenVINO/TensorRT)

    点击下方 卡片 ,关注“ 自动驾驶之心 ”公众号 ADAS巨卷干货,即可获取 今天自动驾驶之心很荣幸邀请到 逻辑牛 分享深度学习部署的入门介绍,带大家盘一盘ONNX、NCNN、OpenVINO等框架的使用场景、框架特点及代码示例。如果您有相关工作需要分享,请在文末联系我们! 点击

    2024年02月08日
    浏览(36)
  • TensorRT 推理 (onnx->engine)

    测试使用:【Win10+cuda11.0+cudnn8.2.1+TensorRT8.2.5.1】 关于安装 一、模型转换 onnx2trt 方法1:使用wang-xinyu/tensorrtx部署yolov5方法:https://wangsp.blog.csdn.net/article/details/121718501 方法2:使用tensorRT转成engine 方法3:使用C++ onnx_tensorrt将onnx转为trt 的推理engine 参考 【python 方法参考】 方法4:

    2023年04月08日
    浏览(25)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包