yolov5简要介绍

这篇具有很好参考价值的文章主要介绍了yolov5简要介绍。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

YOLOV5 有不同的版本,不同版本的网络结构略有差异,但大致都差不多。这里以YOLOV5s 说明。

1、网络结构:

yolov5简要介绍

Backbone : Focus + CSPX + SPP

focus 作用:
通过slice操作, 将 W、H 上的信息融入到通道上,且在下采样过程不带来信息丢失。再使用3 × 3的卷积对其进行特征提取,使得特征提取得更加的充分。
csp 结构:
将feature map拆成两个部分,一部分进行卷积操作,另一部分和上一部分卷积操作的结果进行concate。在分类问题可以降低计算量,在检测问题可以提升CNN 学习能力。
SPP:
不同大小窗口池化,提升特征提取效果。

siRelu :
siRelu(x) = x * sigmoid(x)
小于0时也有响应,比relu平滑。

Neck : FPN + PAN结构 + Detection Head

FPN:深层网络指导浅层网络,能得到更加高级的语义信息
PAN:相比FPN,多了自底向上的过程,提高模型定位能力,定位更依赖浅层信息。

2、数据增强

Mosaic数据增强
随机取4张图片,对每张图片随机裁剪、缩放、组合后形成新的图片。
yolov5简要介绍
自适应锚框
yolov5中将此功能嵌入到代码中,每次训练时,自适应的计算不同训练集中的最佳锚框值。一般训练前用K-mean聚类生成。

3、HEAD 输出

每个head 经过 8、16、32 倍的下采样后输出。每个输出feature map 上的每个grid格子 上的每个anchor预测类别概率,置信度,位置回归。即每个grid 预测变量为 B * (C + 5) B为每个grid 预置 anchor 个数。C为类别数。

4、正样本筛选

正样本匹配:寻找负责预测真值框的先验框 (不负责的作为负样本或丢弃)
正样本寻找过程:
与以往的用IOU匹配不同,yolov5用如下2步骤进行正样本匹配:
1、先验框尺寸匹配:
目标框与先验框的宽比值、高比值的最大值 小于一定阈值,则为正匹配。
例如 YoloV5默认设置的9个先验框为[10,13], [16,30], [33,23], [30,61], [62,45], [59,119], [116,90], [156,198], [373,326],假设Gt 框尺寸为[200, 200],计算 max(w_gt / w_i , w_gt / h_i ) , 得到:
[20. 12.5 8.69 6.66 4.44 3.3 2.22 1.28 1.86] 取阈值为 4 , 所以 [59,119], [116,90], [156,198], [373,326] 四个先验框均满足需求。

2、特征点位置匹配:
每个特征点上预设9个先验框,但并不是每个特征点都能够负责真值的预测。而是需要特征点落在真值框的区域附近。
在以往的Yolo系列中,每个真实框由其中心点所在的网格内的左上角特征点来负责预测。但是这样正样本数往往偏少。yolov5 对此进行扩展,由1个左上角扩展到3个左上角。例如gt的中心点落在特征图的位置如下,通过找到临近的两个特征点的左上角位置也作为正样本。中心点预测偏移不再是0-1,而是 -0.5 - 1.5。
yolov5简要介绍
结合特征点位置 + 先验框尺寸,便能得到正样本。

因此:
1、一个 gt 框可能会和多个先验框匹配
2、如果一个gt框有匹配,那么它至少有3个匹配先验框

4、 LOSS 函数

位置: CIOU_LOSS
其他:cross_entropy文章来源地址https://www.toymoban.com/news/detail-481296.html

到了这里,关于yolov5简要介绍的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • yoloV5模型中,x,s,n,m,l分别有什么不同

    避免误导大家,从小到大顺序为:n,s,m,l,x ———————————————————————————————————————— YOLOv5 的不同变体(如 YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x 和 YOLOv5n)表示不同大小和复杂性的模型。这些变体在速度和准确度之间提供了不同的权衡

    2023年04月10日
    浏览(21)
  • YOLOv5 5.0版本 + OpenCV 4.5.2 部署

    提示:文章写完后,目录可以自动生成,如何生成可参考右边的帮助文档 版本一定要和我的一致,不然不保证能run起来!!! 该任务我们选择YOLOv5 5.0 版本。在https://github.com/ultralytics/yolov5中,可以选择对应的版本下载。由于GitHub上 v5 5.0 版本的C++代码居多,故选择 v5 5.0。(

    2024年02月10日
    浏览(32)
  • 改进的yolov5目标检测-yolov5替换骨干网络-yolo剪枝(TensorRT及NCNN部署)

    2022.10.30 复现TPH-YOLOv5 2022.10.31 完成替换backbone为Ghostnet 2022.11.02 完成替换backbone为Shufflenetv2 2022.11.05 完成替换backbone为Mobilenetv3Small 2022.11.10 完成EagleEye对YOLOv5系列剪枝支持 2022.11.14 完成MQBench对YOLOv5系列量化支持 2022.11.16 完成替换backbone为EfficientNetLite-0 2022.11.26 完成替换backbone为

    2024年01月17日
    浏览(58)
  • LibTorch实战三:C++版本YOLOV5.4的部署

    目录 一、环境配置 二、.torchscript.pt版本模型导出 三、C++版本yolov5.4实现 四、问题记录 4.1、注释 detector.h中,注释如下头文件 4.2、错误: “std”: 不明确的符号 4.3、建议常被debug版本libtorch 4.4、问题:编译成功后,运行代码,发现torch::cuda::is_available()返回false 4.5、导出模型,

    2024年02月06日
    浏览(36)
  • pytorch yolov5网络结构

    2024年02月12日
    浏览(27)
  • YOLOv5、YOLOv7改进之二十九:引入Swin Transformer v2.0版本

     前 言: 作为当前先进的深度学习目标检测算法YOLOv7,已经集合了大量的trick,但是还是有提高和改进的空间,针对具体应用场景下的检测难点,可以不同的改进方法。此后的系列文章,将重点对YOLOv7的如何改进进行详细的介绍,目的是为了给那些搞科研的同学需要创新点或

    2024年02月05日
    浏览(36)
  • YOLOv5源码中的参数超详细解析(2)— 配置文件yolov5s.yaml(包括源码+网络结构图)

    前言: Hello大家好,我是小哥谈。 配置文件yolov5s.yaml在YOLOv5模型训练过程中发挥着至关重要的作用,属于初学者必知必会的文件!在YOLOv5-6.0版本源码中,配置了5种不同大小的网络模型,分别是YOLOv5n、YOLOv5s、YOLOv5m、YOLOv5l、YOLOv5x,其中YOLOv5n是网络深度和宽度最小但检测速度

    2024年02月08日
    浏览(36)
  • [BPU部署教程] 教你搞定YOLOV5部署 (版本: 6.2)

    最近一些人问我怎么在BPU上部署yolov5,因为之前的博客[BPU部署教程] 一文带你轻松走出模型部署新手村介绍的网络都是基于Caffe的,自己的网络都是基于pytorch的,所以遇到了很多坑。鉴于这些需求,我自己研究了下部署的方式,把自己的过程整理下来供各位参考(看我这么好

    2024年02月15日
    浏览(45)
  • 《YOLOv5/v7进阶实战专栏》专栏介绍 & 专栏目录

    本专栏包含超多YOLO算法进阶使用教程;我会用最简练的语言让你用最低的时间成本掌握下面的内容,使用过程中有任何问题都可以与本人联系 ~ 2024年1-2月会对整个专栏全面重构,增加更多的改进,更多实战内容,修改好的代码包,敬请期待~ 专栏地址:点击跳转 专栏重构中

    2024年02月15日
    浏览(40)
  • ONNX版本YOLOV5-DeepSort (rknn版本已经Ready)

    目录 1. 前言 2. 储备知识 3. 准备工作 4. 代码修改的地方 5.结果展示         之前一直在忙着写文档,之前一直做分类,检测和分割,现在看到跟踪算法,花了几天时间找代码调试,看了看,展示效果比单纯的检测要更加的炸裂一点。         DeepSORT(Deep Learning to Tra

    2024年02月11日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包