【目标检测】目标检测 相关学习笔记

这篇具有很好参考价值的文章主要介绍了【目标检测】目标检测 相关学习笔记。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目标检测算法

PASCALVOC2012数据集

挑战赛主要分为 图像分类 目标检测 目标分割 动作识别

数据集分为四个大类 交通(飞机 船 公交车 摩托车) 住房(杯子 椅子 餐桌 沙发) 动物(鸟 猫 奶牛 狗 马 羊) 其他(人)

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

MS COCO数据集

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

mAP

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

目标检测前言

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

1. RCNN

1.框定候选区

2.对每一个候选区域,使用深度网络提取特征

3.将特征送入每一类的SVM分类器,判定类别

4.使用回归器精细修正候选框位置

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-3LsnYSGV-1692175490949)(/Users/hudie/Library/Application%20Support/typora-user-images/image-20230323093521225.png)]

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

RCNN存在的问题

1.速度慢

2.空间大

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

2.FasterRCNN

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

3 Faster R-CNN

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

Faster RCNN检测部分主要可以分为四个模块:
(1)conv layers。即特征提取网络,用于提取特征。通过一组conv+relu+pooling层来提取图像的feature maps,用于后续的RPN层和取proposal。
(2)RPN(Region Proposal Network)。即区域候选网络,该网络替代了之前RCNN版本的Selective Search,用于生成候选框。这里任务有两部分,一个是分类:判断所有预设anchor是属于positive还是negative(即anchor内是否有目标,二分类);还有一个bounding box regression:修正anchors得到较为准确的proposals。因此,RPN网络相当于提前做了一部分检测,即判断是否有目标(具体什么类别这里不判),以及修正anchor使框的更准一些。
(3)RoI Pooling。即兴趣域池化(SPP net中的空间金字塔池化),用于收集RPN生成的proposals(每个框的坐标),并从(1)中的feature maps中提取出来(从对应位置扣出来),生成proposals feature maps送入后续全连接层继续做分类(具体是哪一类别)和回归。
(4)Classification and Regression。利用proposals feature maps计算出具体类别,同时再做一次bounding box regression获得检测框最终的精确位置

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

FPN 结构讲解

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

Region Proposal Network,直接翻译是“区域生成网络”,通俗讲是“筛选出可能会有目标的框”。其本质是基于滑窗的无类别object检测器,输入是任意尺度的图像,输出是一系列矩形候选区域

Faster R-CNN由两个模块组成,第一个模块是用来产生区域推荐的RPN,第二个模块是使用推荐区域的Fast R-CNN检测器。

传统检测方法提取候选区域都非常耗时,如OpenCV adaboost使用滑动窗口+图像金字塔,或R-CNN使用SS(Selective Search)。而Faster RCNN直接使用RPN生成检测框,能极大提升检测框的生成速度,而RPN是用一个全卷积网络来实现的,可以与检测网络共享整幅图像的卷积特征,从而产生几乎无代价的区域推荐

非极大值抑制

Non-Maximum Suppression的翻译是非“极大值”抑制,而不是非“最大值”抑制。这就说明了这个算法的用处:找到局部极大值,并筛除(抑制)邻域内其余的值

SSD

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-CMCbTRvH-1692175490951)(https://cdn.staticaly.com/gh/hudiework/img@main/image-20230425093635171.png)]

经典算法

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-RJm3pHfV-1692175490951)(https://cdn.staticaly.com/gh/hudiework/img@main/image-20230425154244293.png)]

实际上训练结果 faster 和ssd 训练结果 差不多 如果训练集比较小的话 那么 faster rcnn 比ssd训练结果要好一点 ssd 检测速度要比rcnn块很多 单gpu可以检测50-60张 fpn+ssd = RetinaNet 检测精度差不多 == fpn+ faster rcnn 但是检测速度快很多

SSD: 训练结果

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

YOLO

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

yolov1

YoloV1 对于群体性的小目标 适应性效果更差 小的值并且目标比较密集的话 yolov1 是不能做的 主要的就是 定位不准确 直接定位 而不是相对于 anchor进行回归预测

Yolov2

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

YOLOV3

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

yoloV3spp

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

yoloV3SPP训练:

第一步 先将pascal数据集转换成yolo专用的数据格式

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

分割之后的数据集显示、

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

YoloV4

YOLOv4是2020年Alexey Bochkovskiy等人发表在CVPR上的一篇文章,并不是Darknet的原始作者Joseph Redmon发表的,但这个工作已经被Joseph Redmon大佬认可了。之前我们有聊过YOLOv1YOLOv3以及Ultralytics版的YOLOv3 SPP网络结构,如果不了解的可以参考之前的视频,YOLO系列网络详解。如果将YOLOv4和原始的YOLOv3相比效果确实有很大的提升,但和Ultralytics版的YOLOv3 SPP相比提升确实不大,但毕竟UltralyticsYOLOv3 SPP以及YOLOv5都没有发表过正式的文章,所以不太好讲。所以今天还是先简单聊聊Alexey BochkovskiyYOLOv4

https://blog.csdn.net/qq_37541097/article/details/123229946?spm=1001.2014.3001.5501

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-gOAlg63O-1692175490953)(…/…/Library/Application%20Support/typora-user-images/image-20230509150732751.png)]

YoloV5

https://blog.csdn.net/qq_37541097/article/details/123594351?spm=1001.2014.3001.5501

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

FCOS:

在之前讲的一些目标检测网络中,比如Faster RCNN系列、SSDYOLOv2~v5(注意YOLOv1不包括在内)都是基于Anchor进行预测的。即先在原图上生成一堆密密麻麻的Anchor Boxes,然后网络基于这些Anchor去预测它们的类别、中心点偏移量以及宽高缩放因子得到网络预测输出的目标,最后通过NMS即可得到最终预测目标。那基于Anchor的网络存在哪些问题呢,在FCOS论文的Introduction中,作者总结了四点:

  1. 检测器的性能和Anchor的size以及aspect ratio相关,比如在RetinaNet中改变Anchor(论文中说这是个超参数hyper-parameters)能够产生约4%的AP变化。换句话说,Anchor要设置的合适才行。
  2. 一般Anchor的size和aspect ratio都是固定的,所以很难处理那些形状变化很大的目标(比如一本书横着放w远大于h,竖着放h远大于w,斜着放w可能等于h,很难设计出合适的Anchor)。而且迁移到其他任务中时,如果新的数据集目标和预训练数据集中的目标形状差异很大,一般需要重新设计Anchor。
  3. 为了达到更高的召回率(查全率),一般需要在图片中生成非常密集的Anchor Boxes尽可能保证每个目标都会有Anchor Boxes和它相交。比如说在FPN(Feature Pyramid Network)中会生成超过18万个Anchor Boxes(以输入图片最小边长800为例),那么在训练时绝大部分的Anchor Boxes都会被分为负样本,这样会导致正负样本极度不均。下图是我随手画的样例,红色的矩形框都是负样本,黄色的矩形框是正样本。
  4. Anchor的引入使得网络在训练过程中更加的繁琐,因为匹配正负样本时需要计算每个Anchor Boxes和每个GT BBoxes之间的IoU。

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

【目标检测】目标检测 相关学习笔记,目标检测,学习,笔记

YoloX

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-FH5u3ZHP-1692175490954)(…/…/Library/Application%20Support/typora-user-images/image-20230509192721569.png)]

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-xce3laRw-1692175490954)(…/…/Library/Application%20Support/typora-user-images/image-20230509193705340.png)]文章来源地址https://www.toymoban.com/news/detail-660544.html

到了这里,关于【目标检测】目标检测 相关学习笔记的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习笔记 - YOLO-NAS 最高效的目标检测算法之一

            YOLO(You Only Look Once)是一种对象检测算法,它使用深度神经网络模型,特别是卷积神经网络,来实时检测和分类对象。该算法首次在 2016 年由 Joseph Redmon、Santosh Divvala、Ross Girshick 和 Ali Farhadi 发表的论文《You Only Look Once: Unified, Real-Time ObjectDetection》中被引入。  

    2024年02月14日
    浏览(48)
  • 人工智能学习与实训笔记(三):神经网络之目标检测问题

    人工智能专栏文章汇总:人工智能学习专栏文章汇总-CSDN博客 目录 三、目标检测问题 3.1 目标检测基础概念 3.1.1 边界框(bounding box) 3.1.2 锚框(Anchor box) 3.1.3 交并比 3.2 单阶段目标检测模型YOLOv3 3.2.1 YOLOv3模型设计思想 3.2.2 YOLOv3模型训练过程 3.2.3 如何建立输出特征图与预

    2024年02月20日
    浏览(62)
  • 深度学习(目标检测):YOLO网络学习笔记(YOLO v1,YOLO v2和 YOLO v3)

    两种进行目标检测任务的深度学习方法 : 分类 :深度学习的目标检测的方法可以分为两类,分别是一阶段方法和二阶段方法。 一阶段方法 :YOLO系列模型都是一阶段方法,这一类方法可以一步到位地使用卷积神经网络进行特征提取并输出标注框。 两阶段方法 :两阶段阶段

    2023年04月11日
    浏览(42)
  • 机器学习笔记 - 目标检测中的加权框融合与非极大值抑制的对比

            后处理步骤是目标检测中一个琐碎但重要的组成部分。本文主要是为了了解当拥有多个对象检测模型的集合时,加权框融合(WBF)相对于传统非极大值抑制(NMS)作为对象检测中后处理步骤的差异。         对象检测模型通常使用非极大值抑制 (NMS) 作为默认后

    2024年02月14日
    浏览(47)
  • 详细理解(学习笔记) | DETR(整合了Transformer的目标检测框架) DETR入门解读以及Transformer的实操实现

    DETR ,全称 DEtection TRansformer,是Facebook提出的基于Transformer的端到端目标检测网络,发表于ECCV2020。 原文: 链接 源码: 链接 DETR 端到端目标检测网络模型,是第一个将 Transformer 成功整合为检测pipline中心构建块的目标检测框架模型。基于Transformers的端到端目标检测,没有NMS后

    2024年02月04日
    浏览(56)
  • 数据集学习笔记(六):目标检测和图像分割标注软件介绍和使用,并转换成YOLO系列可使用的数据集格式

    labelImg是一个开源的图像标注工具,用于创建图像标注数据集。它提供了一个简单易用的界面,允许用户通过绘制边界框或者创建多边形来标注图像中的对象。它支持多种常见的标注格式,如Pascal VOC、YOLO和COCO等。 使用labelImg,用户可以加载图像文件夹,逐个标注图像中的对

    2024年02月10日
    浏览(55)
  • 输电线路相关数据集(目标检测、图像识别等领域)

    输电线路、电网相关数据集,用于电气、自动化、计算机等专业结合深度学习、目标检测、语义分割、实例分割相关技术实现应用型研究!!! 下载链接:个人主页资源列表 目前已更新数据集类型如下: 1.输电线路异物数据集(4500张+VOC) 2.输电线路鸟巢数据集(2000多张+

    2023年04月23日
    浏览(41)
  • 电气领域相关数据(目标检测,分类图像数据及负荷预测,持续更新)

    可下载版,持续更新 1. 电力设备红外图像与可见光图像配准数据集(103对图像,绝缘套管)    下载地址:电力设备红外图像与可见光图像配准数据集(103对图像) 2.变电站红外图像数据集(电压电流互感器,VOC标签,889张) 下载地址: 变电站红外图像数据集(电压电流

    2024年02月07日
    浏览(75)
  • YOLOv5基础知识入门(3)— 目标检测相关知识点

      前言 : Hello大家好,我是小哥谈。 YOLO算法发展历程和YOLOv5核心基础知识学习完成之后,接下来我们就需要学习目标检测相关知识了。为了让大家后面可以顺利地用YOLOv5进行目标检测实战,本节课就带领大家学习一下目标检测的基础知识点,希望大家学习之后有所收获!

    2024年02月13日
    浏览(39)
  • 【深度学习目标检测】七、基于深度学习的火灾烟雾识别(python,目标检测,yolov8)

    YOLOv8是一种物体检测算法,是YOLO系列算法的最新版本。 YOLO(You Only Look Once)是一种实时物体检测算法,其优势在于快速且准确的检测结果。YOLOv8在之前的版本基础上进行了一系列改进和优化,提高了检测速度和准确性。 YOLOv8采用了Darknet-53作为其基础网络架构。Darknet-53是一

    2024年04月13日
    浏览(61)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包