Tensorflow调用训练好的yolov5模型进行推理

这篇具有很好参考价值的文章主要介绍了Tensorflow调用训练好的yolov5模型进行推理。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、安装TensorFlow-GPU版本

1、创建虚拟环境python=3.8
conda create -n TF2.4 python=3.8

2、进入虚拟环境
conda activate TF2.4

3、去官网查看tensorflow对应cuda的版本
https://tensorflow.google.cn/install/source_windows?hl=zh-cn

Tensorflow调用训练好的yolov5模型进行推理,工作中遇到的问题,neo4j,原力计划
conda search找找当前源下的CUDA与cuDNN有没有我们要的版本:

conda search cuda
conda search cudnn

conda install cudatoolkit=11.0.221
conda install cudnn=8.2.1

# 安装tensorflow-gpu版本
pip install tensorflow-gpu==2.4.0


Tensorflow调用训练好的yolov5模型进行推理,工作中遇到的问题,neo4j,原力计划
Tensorflow调用训练好的yolov5模型进行推理,工作中遇到的问题,neo4j,原力计划

1.2、验证是否安装正常

import tensorflow as tf
print(tf.__version__)
print(tf.test.is_gpu_available())

2、将训练好的pt文件转换成onnx文件

2.2、什么是Onnx模型和Tensorflow模型

Onnx(Open Neural Network Exchange)是一种开放的深度学习模型交换格式,用于在不同的深度学习框架之间共享模型。它提供了一个中间格式,可以将模型从一个框架转换为另一个框架。
Tensorflow是一个广泛使用的深度学习框架,提供了强大的模型构建和训练工具。Tensorflow模型通常以.pb文件格式保存,它包含了模型的结构和参数。

2.1、将onnx文件转换成pb文件

可以通过yolov5中export.py文件进行转换

python export.py --weights weights/best.pt --include onnx engine --img 640 --device 0

pb文件是tensorflow中可以使用的文件

使用代码进行转换

pip install --user tensorflow_probability==0.7.0

import onnx
from onnx_tf.backend import prepare
import tensorflow.keras as keras



# 加载Onnx模型
onnx_model = onnx.load('best.onnx')

# 转换为Tensorflow模型
tf_model = prepare(onnx_model)

# 保存为.pb文件
tf_model.export_graph('best.pb')

源码进行转换

源码下载:https://github.com/onnx/onnx-tensorflow#installation

之后再终端安装:

pip install -e.
pip install tensorflow-addons

都安装好之后就可以直接在终端进行转换了

onnx-tf convert -i D:\\yolov5_back\\weights\\best.onnx -o D:\\yolov5_back\\weights\\best.onnx.pb

转换过程中可能会报两个错误:
错误1:from keras import backend
ModuleNotFoundError: No module named ‘keras’

# 点击进入报错的文件中,修改这行
from tensorflow.keras import backend

Tensorflow调用训练好的yolov5模型进行推理,工作中遇到的问题,neo4j,原力计划

错误2:
from tensorflow.keras.utils import tf_utils
ImportError: cannot import name ‘tf_utils’ from ‘tensorflow.keras.utils’ (C:\Users\Administrator.conda\envs\Tensorflow_gpu_2.4\lib\site-packages\tensorflow\keras\utils_init_.py)文章来源地址https://www.toymoban.com/news/detail-681264.html

# 解决方法直接将这行注释掉
from keras.utils import tf_utils

到了这里,关于Tensorflow调用训练好的yolov5模型进行推理的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 请描述TensorFlow中的Saver对象及其用途。在TensorFlow中,如何保存和加载训练好的模型?

    请描述TensorFlow中的Saver对象及其用途。 TensorFlow中的Saver对象是一个用于保存和加载模型参数的类。Saver对象在TensorFlow中扮演着至关重要的角色,尤其是在模型训练和部署的过程中。 Saver对象的主要用途如下: 模型保存:在训练神经网络模型的过程中,我们通常需要保存模型

    2024年04月15日
    浏览(33)
  • 36、RK3399Pro 环境搭建和Yolov5 c++调用opencv进行RKNN模型部署和使用

    基本思想:记录rk3399 pro配置环境和c++ npu开发记录,主要想搞一份c++代码和其它图像算法结合一下,好进行部署,淘宝链接见附录  需要的python3.7对应的aarch64的whl包:包含opencv-whl 、h5py-whl包: 链接: https://pan.baidu.com/s/1cvCAmHBa_4KgEjrcFIYnig 提取码: 5ui4 链接: https://pan.baidu.com/s/1hrc

    2024年02月07日
    浏览(30)
  • Yolov5对本地视频进行推理时,实现跳帧检测,提高推理效率

    今天在使用Yolov5的detect.py对本地视频进行推理时,发现推理速度受硬件性能影响比较大,为提高检测效率,在部分没必要逐帧检测的情况下,可以考虑设置跳帧检测。 对detect.py观察了一番之后,发现视频读取靠的是dataloaders.py库,于是继续观察。 最终得出了以下解决方案:

    2024年02月12日
    浏览(42)
  • 利用python版tensorRT进行推理【以yolov5为例】

    上一篇文章中已经详细叙述了如何用tensorRT将onnx转为engine【利用python版tensorRT导出engine【以yolov5为例】_爱吃肉的鹏的博客-CSDN博客】。 本篇文章将继续讲解trt的推理部分。 与之前一样,在讲解之前需要先介绍一些专业术语,让大家看看这些内置函数都有什么功能。 1.Binding含

    2024年02月12日
    浏览(32)
  • OpenCV DNN模块推理YOLOv5 ONNX模型方法

    本文档主要描述 python 平台,使用 opencv-python 深度神经网络模块 dnn ,推理 YOLOv5 模型的方法。 文档主要包含以下内容: opencv-python 模块的安装 YOLOv5 模型格式的说明 ONNX 格式模型的加载 图片数据的预处理 模型推理 推理结果后处理,包括 NMS , cxcywh 坐标转换为 xyxy 坐标等 关键方

    2024年02月16日
    浏览(39)
  • 【目标检测实验系列】AutoDL线上GPU服务器租用流程以及如何用Pycharm软件远程连接服务器进行模型训练 (以Pycharm远程训练Yolov5项目为例子 超详细)

           本篇博客主要涉及两个主体内容。 第一个 :从AutoDL网站中租用GPU服务器。 第二个 :用Pycharm软件远程连接租来的线上服务器,并以Yolov5项目为例,线上训练模型。此过程中会记录重要的地方,以及本人踩坑之后,如何解决问题的所思所想( 通读本篇博客大概需要1

    2024年02月03日
    浏览(42)
  • Yolov5口罩佩戴实时检测项目(模型剪枝+opencv+python推理)

    如果只是想体验项目,请直接跳转到本文第2节,或者跳转到我的facemask_detect。 剪枝的代码可以查看我的github:yolov5-6.2-pruning 第1章是讲述如何得到第2章用到的onnx格式的模型文件(我的项目里直接提供了这个文件)。 第2章开始讲述如何使用cv2.dnn加载onnx文件并推理yolov5n模型

    2023年04月08日
    浏览(34)
  • Intel N100工控机使用核显加速推理yolov5模型

    今年3月初开始,某平台开始陆续上货基于英特尔Alder Lake-N处理器系列的迷你主机。最先出现的是N95和N100两款处理器,迷你主机的整机价格已经打到800元左右的水平了,还是有挺高可玩性的。其中N100的规格如下: 这个cpu性能虽然不是很强,性能接近4代i5移动端,但功耗很低,

    2024年02月14日
    浏览(45)
  • Tensorflow实现训练数据的加载—模型搭建训练保存—模型调用和加载全流程

     将tensorflow的训练数据数组(矩阵)保存为.npy的数据格式。为后续的模型训练提供便捷的方法。例如如下:   加载.npy训练数据和测试数组(矩阵),加载后需要调整数据的形状以满足设计模型的输入输出需求,不然无法训练模型。 这里可以采用自定义层和tensorflow的API搭建

    2024年02月05日
    浏览(28)
  • 手把手调参 YOLOv8 模型之 训练|验证|推理配置-详解

    YOLO系列模型在目标检测领域有着十分重要的地位,随着版本不停的迭代,模型的性能在不断地提升,源码提供的功能也越来越多,那么如何使用源码就显得十分的重要,接下来通过文章带大家手把手去了解Yolov8(最新版本)的每一个参数的含义,并且通过具体的图片例子让大

    2024年02月05日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包