Triton部署之TensorRT-bugfix

这篇具有很好参考价值的文章主要介绍了Triton部署之TensorRT-bugfix。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、前言

        Triton部署经常会有一些姨妈的错误,个人经验大都为版本不匹配导致;

 二、 本人环境

        nvidia-smi:

Triton部署之TensorRT-bugfix,python,人工智能

使用的官方镜像为:nvcr.io/nvidia/tritonserver:21.09-py3
使用的onnx版本为:pip install onnx == 1.12.0 -i https://pypi.tuna.tsinghua.edu.cn/simple
 对应的版本链接可参考官网:
    https://docs.nvidia.com/deeplearning/triton-inference-server/release-notes/rel_21-09.html#rel_21-09
 除此之外,环境依赖安装了: pip install nvidia-pyindex nvidia-dali-cuda110 

三、报错信息

报错信息如下:
    E0719 02:45:05.225510 2971 logging.cc:43] 6: The engine plan file is not compatible with this version of TensorRT, expecting library version 8.0.3 got 8.0.1, please rebuild.
    E0719 02:45:05.225711 2971 logging.cc:43] 4: [runtime.cpp::deserializeCudaEngine::75] Error Code 4: Internal Error (Engine deserialization failed.)     

四、解决方案

1、原因很明显为8.0.1版本的TensorRT导致了不兼容问题,故重装了对应的tensorRT版本为:

        pip install nvidia-tensorrt==8.0.3   

2、重新模型转换:model.onnx --> model.plan

3、放到对应的Triton模型目录下:很奇怪的是为什么都要命名为model.onnx 或者 model.plan,可能内定写死了?反正我改名就可以检测到了;

五、参考链接

        附上官网的用使用手册:Quickstart — NVIDIA Triton Inference Server

有问题随时联系,欢迎一键三连!文章来源地址https://www.toymoban.com/news/detail-582279.html

到了这里,关于Triton部署之TensorRT-bugfix的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【TensorRT】TensorRT 部署Yolov5模型(C++)

      该项目代码在本人GitHub代码仓库开源,本人GitHub主页为:GitHub   项目代码:   NVIDIA TensorRT™ 是用于高性能深度学习推理的 SDK,可为深度学习推理应用提供低延迟和高吞吐量。详细安装方式参考以下博客: NVIDIA TensorRT 安装 (Windows C++)   经典的一个TensorRT部署模型步骤为

    2023年04月26日
    浏览(40)
  • 【TensorRT】基于C#调用TensorRT 部署Yolov5模型 - 上篇:构建TensorRTSharp

      NVIDIA TensorRT™ 是用于高性能深度学习推理的 SDK,可为深度学习推理应用提供低延迟和高吞吐量。详细安装方式参考以下博客: NVIDIA TensorRT 安装 (Windows C++)   前文中已经介绍了在C++中利用TensorRT 部署Yolov5模型,但在实际应用中,经常会出现在C#中部署模型的需求,目前T

    2023年04月24日
    浏览(39)
  • 【模型部署】TensorRT的安装与使用

    https://blog.csdn.net/qq_44747572/article/details/122453926?spm=1001.2014.3001.5502 下载链接:https://developer.nvidia.com/nvidia-tensorrt-8x-download 我的cuda版本是11.0,因此下面以此做演示: 下载tensorRT的zip文件 将下载好的文件夹进行解压: 系统环境配置: 高级系统环境–环境变量–系统变量–Path(添

    2024年02月15日
    浏览(28)
  • HRNet语义分割训练及TensorRT部署

    环境构建 1. 创建虚拟环境 2. 安装cuda和cudnn 3. 安装pytorch 4. 下载项目代码 或者直接从 https://github.com/HRNet/HRNet-Semantic-Segmentation/tree/HRNet-OCR 处下载zip包 5. 安装项目依赖的其他包 数据整理 1. 标注 使用labelme或其他标注工具做语义分割标注,网上关于labelme标注的教程很多,且操作

    2024年02月07日
    浏览(28)
  • pointnet C++推理部署--tensorrt框架

    python推理: C++推理: 其中推理引擎的构建也可以直接使用tensorrt的bin目录下的trtexec.exe。 LZ也实现了cuda版本的前处理代码,但似乎效率比cpu前处理还低。可能是数据量不够大吧(才10^3数量级),而且目前LZ的cuda水平也只是入门阶段… python推理: C++推理: python推理: C++推理

    2024年02月11日
    浏览(28)
  • ubuntu下yolox tensorrt模型部署

    TensorRT系列之 Windows10下yolov8 tensorrt模型加速部署 TensorRT系列之 Linux下 yolov8 tensorrt模型加速部署 TensorRT系列之 Linux下 yolov7 tensorrt模型加速部署 TensorRT系列之 Linux下 yolov6 tensorrt模型加速部署 TensorRT系列之 Linux下 yolov5 tensorrt模型加速部署 TensorRT系列之 Linux下 yolox tensorrt模型加速部

    2024年02月06日
    浏览(27)
  • TensorRT部署--Linux(Ubuntu)环境配置

    TensorRT环境配置–Linux(Ubuntu) TensorRT部署-Windows环境配置: https://blog.csdn.net/m0_70420861/article/details/135658922?spm=1001.2014.3001.5502 如果还未配置环境的话,nvidia-smi是不会显示的。 以CUDA-BEVFusion部署为例搭建环境: https://github.com/NVIDIA-AI-IOT/Lidar_AI_Solution/tree/master/CUDA-BEVFusion 查看兼容性:

    2024年01月23日
    浏览(30)
  • TensorRT模型优化部署 (八)--模型剪枝Pruning

    第一章 TensorRT优化部署(一)–TensorRT和ONNX基础 第二章 TensorRT优化部署(二)–剖析ONNX架构 第三章 TensorRT优化部署(三)–ONNX注册算子 第四章 TensorRT模型优化部署(四)–Roofline model 第五章 TensorRT模型优化部署(五)–模型优化部署重点注意 第六章 TensorRT模型优化部署(

    2024年01月20日
    浏览(28)
  • 记录我的tensorrt 部署yolov8

    系统 :ubuntu 18.04 代码 :https://github.com/triple-Mu/YOLOv8-TensorRT conda 环境 : 按照上面代码环境安装  python==3.8 cuda : 11.8 tensorrt : 8.5.1.7-1+cuda11.8 没有cudnn nvidia-tensorrt(conda) : 8.4.1.5  Driver Version: 530.41.03 在我电脑上加速 3倍左右   我电脑设备 3060

    2024年02月10日
    浏览(28)
  • YOLOv5 Tensorrt Python/C++部署

    https://www.bilibili.com/video/BV113411J7nk?p=1 https://github.com/Monday-Leo/Yolov5_Tensorrt_Win10 基于 Tensorrt 加速 Yolov5 6.0 支持 Windows10 支持 Python/C++ Tensorrt 8.2.1.8 Cuda 10.2 Cudnn 8.2.1( 特别注意需安装两个cuda10.2补丁 ) Opencv 3.4.6 Cmake 3.17.1 VS 2017 GTX1650 从yolov5 release v6.0下载.pt模型,这里以yolov5s.pt为例。

    2024年01月21日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包