简述YOLOv8与YOLOv5的区别

这篇具有很好参考价值的文章主要介绍了简述YOLOv8与YOLOv5的区别。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

yolov7,yoloX相关论文还没细看,yolov8就出来了。太卷了!

YOLOv8 是 ultralytics 公司在 2023 年 1月 10 号开源的 YOLOv5 的下一个重大更新版本。
GitHub地址 : github.com/ultralytics/ultralytics

YOLOv8是在YOLOv5上的一次更新,故本篇文章主要对比两者区别:

YOLOv5架构:

yolov8和yolov5对比,目标检测,YOLO,算法,人工智能,目标检测

架构特点:

1.Backbone

CSP的思想(/梯度分流)的主要思想, 其中多为CBS和C3模块。

2.PAN/FPN

双流的FPN,其中多为CBS和C3模块。

3.Head

coupled head + Anchor-base(coupled head这一词是在YoloX提出decoupled head 与之对应,后续会讲解coupled head 和decoupled head的区别)。

4.正负样本分配策略

静态分配策略。

5.Loss

分类用BCE Loss,回归用CIOU Loss。还有一个存在物体的置信度损失(BCE Loss)。

其他补充:Yolov5中SPP和SPPF的区别。

作用/功能: 经过1×1,5×5,9×9,13×13的池化生成的特征图都是13×13的,保持原大小不变。这里作用是融合局部和整体特征。
区别: SPPF可以减少计算量,原来要3个MaxPool2d,现在只要1个MaxPool2d,有点像快速幂求解的算法思路。
详细看:https://zhuanlan.zhihu.com/p/584153158

YOLOv8架构:

yolov8和yolov5对比,目标检测,YOLO,算法,人工智能,目标检测

架构特点:

1.Backbone

相同:CSP的思想(/梯度分流);并且使用SPPF模块。
不同:将C3模块替换为C2f模块。

2.PAN-FPN

双流的FPN,(其中多为CBS和C3模块)。
相同:PAN的思想。
不同:删除了YOLOv5中PAN-FPN上采样的CBS 1*1,将C3模块替换为C2f模块。

3.Head

Decoupled head + Anchor-free

4.正负样本分配策略

采用了TAL(Task Alignment Learning)动态匹配。

5. Loss

相同:分类损失依然采用 BCE Loss
不同:(1).舍去物体的置信度损失;(2).回归分支loss: CIOU loss+ DFL
DFL的描述详见: https://zhuanlan.zhihu.com/p/147691786

两者推理过程区别

YOLOv8 的推理过程和 YOLOv5 几乎一样,唯一差别在于前面需要对 Distribution Focal Loss 中的积分表示 bbox 形式进行解码,变成常规的 4 维度 bbox,后续计算过程就和 YOLOv5 一样了。

coupled head 和 decoupled head 有什么差异?

参考:

https://www.cnblogs.com/chentiao/p/16420907.html

区别:
yolov8和yolov5对比,目标检测,YOLO,算法,人工智能,目标检测

当使用coupled head时,网络直接输出shape (1,85,80,80);
如果使用 decoupled head,网络会分成回归分支和分类分支,最后再汇总在一起,得到shape同样为 (1,85,80,80)。
为什么用decoupled head?
如果使用coupled head,输出channel将分类任务和回归任务放在一起,这2个任务存在冲突性。(论文中说有冲突性,但是没有理解为什么存在冲突,我考虑的是从损失函数角度存在冲突)
通过实验发现替换为Decoupled Head后,不仅是模型精度上会提高,同时 网络的收敛速度也加快了,使用Decoupled Head的表达能力更好。
Couple Head和 Decoupled Head 的对比曲线如下:

yolov8和yolov5对比,目标检测,YOLO,算法,人工智能,目标检测文章来源地址https://www.toymoban.com/news/detail-780411.html

到了这里,关于简述YOLOv8与YOLOv5的区别的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • YOLOv5 vs YOLOv8

    YOLOv8 是 ultralytics 公司在 2023 年 1月 10 号开源的 YOLOv5 的下一个重大更新版本。 https://github.com/ultralytics/yolov5 https://github.com/ultralytics/ultralytics YOLOv5 N/S/M/L/X 骨干网络的通道数设置使用同一套缩放系数; YOLOv8 N/S/M/L/X 骨干网络的通道数设置不一样,使用不同的缩放系数。YOLOv7 网

    2024年02月09日
    浏览(42)
  • 从YOLOv5到YOLOv8(0.52)

    每次代码更新版本都要费眼睛去适应,写个教程方便他人 这里是写给有YOLOv5基础的,因为v5的新手教程已经很多了,v8和v5的源码形式上差不多,只是调用的时候有点区别而已。 YOLOv8 github源码 v8的环境和v5没什么主要区别,待会儿跑一遍,缺什么补什么就好。 下载源文件,不

    2024年02月09日
    浏览(32)
  • 【yolov5&yolov7&yolov8火焰和烟雾检测】

    YOLOv5训练好的火焰检测模型,并包含2000张标注好的火焰和烟雾数据集,标签格式为xml和txt两种,类别名为fire, 有QT界面 采用pytrch框架,代码是python的 火灾检测数据集-1 YOLOv3火焰识别训练模型: https://download.csdn.net/download/zhiqingAI/85438269 yolov5火焰识别训练模型+数据集: https

    2024年04月28日
    浏览(49)
  • yolov5 VS yoloX VS yolov8

    YOLOv5-6.0版本的 Backbone 主要分为 Conv模块 、 CSPDarkNet53(C3) 和 SPPF模块 。 CSPNet 被提出的主要目的是为了保证在模型检测和识别精度没有下降的情况下, 减少计算量,提高推理速度 。它的主要思想是通过 分割梯度流 ,使梯度流通过不同的网络路径传播。通过拼接和过渡等操

    2023年04月16日
    浏览(34)
  • YOLOv5、YOLOv8改进:S2注意力机制

    目录 1.简介 2.YOLOv5改进 2.1增加以下S2-MLPv2.yaml文件 2.2common.py配置 2.3yolo.py配置  S2-MLPv2注意力机制   最近,出现了基于 MLP 的视觉主干。与 CNN 和视觉Transformer相比,基于 MLP 的视觉架构具有较少的归纳偏差,在图像识别方面实现了有竞争力的性能。其中,spatial-shift MLP (S2-MLP),

    2024年02月12日
    浏览(45)
  • pytorch 训练、微调YOLOv5,YOLOv8 小技巧 合集

    yolo v5 坐标相关的判断与转换,评价指标,训练结果解析 YOLOv8 多目标跟踪与常见问题汇总 python + pytorch 多线程实现级联模型的业务逻辑 yolov5 奇奇怪怪的错误汇总:【版本兼容,模型训练,数据加载,模型加速】 基于 TensorRT 使用 python 进行推理优化, 以YOLOv5 为例 本文除了回

    2024年02月07日
    浏览(43)
  • YOLOv8/YOLOv7/YOLOv5系列改进| 目录一览表

    💡魔改YOLO系列算法,助力涨点,助力科研。通过添加注意力机制 SE/CBAM/CoordAtt/ECA /SimAM/CrissCrossAttention/ SKAttention/GAMAttention/S2-MLPv2/NAM 等;网络轻量化方法通过更换主干特征提取网络为 MobileNetV3/ShuffleNetV2/EfficientNetv2/Ghostnet/深度可分离卷积/PP-LCNet/mobileone/Ghostnetv2/ELAN 等;优化原

    2023年04月20日
    浏览(48)
  • yolov5、YOLOv7、YOLOv8改进:注意力机制CA

    目录 1.背景介绍 论文题目:《Coordinate Attention for Efficient Mobile NetWork Design》论文地址:  https://arxiv.org/pdf/2103.02907.pdf 2.原理介绍 3.YOLOv5改进: 3.1common中加入下面代码 3.2在yolo.py中注册 3.3添加配置文件 4.yolov7改进 4.1 在common中加入以下代码 4.2在yolo.py中注册 4.3添加配置文件 本

    2024年02月13日
    浏览(54)
  • 为YOLOv5、YOLOv8带来全新的数据增强方式-合成雾增强算法

    BestYOLO:https://github.com/WangRongsheng/BestYOLO BestYOLO 是一个以科研和竞赛为导向的最好的 YOLO 实践框架! 目前 BestYOLO 是一个完全基于 YOLOv5 v7.0 进行改进的开源库,该库将始终秉持以落地应用为导向,以轻便化使用为宗旨,简化各种模块的改进。目前已经集成了基于 torchvision.model

    2024年02月03日
    浏览(33)
  • YOLOv5、YOLOv8改进:MobileViT:轻量通用且适合移动端的视觉Transformer

    MobileViT: Light-weight, General-purpose, and Mobile-friendly Vision Transformer 论文:https://arxiv.org/abs/2110.02178 MobileviT是一个用于移动设备的轻量级通用可视化Transformer,据作者介绍,这是第一次基于轻量级CNN网络性能的轻量级ViT工作,性能SOTA!。性能优于MobileNetV3、CrossviT等网络。 轻量级卷积

    2024年02月13日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包