缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)

这篇具有很好参考价值的文章主要介绍了缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)

异常检测/缺陷检测性能的评估

对于异常检测性能的评估,以接收者特性曲线下方的面积AUROC(area under the receiver operating characteristic)作为评估指标。

异常检测任务本质上是一项分类任务,而AUROC指标从原理上是根据混淆矩阵计算得出,如图为一个二分类混淆矩阵,其中1为异常,0为正常。

第一行的0和1分别对应实际值为正常和异常的情况,第一列的0和1分别对应预测值为正常和异常的情况。

缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)

将预测为异常且实际为异常的样本定义为真阳性样本TP(True Positive),而预测为异常但实际为正常的样本则定义为假阳性样本FP(False Positive),剩下两个以此类推。

对于分类的性能的评估通常使用的指标为:准确率(Accuracy)、召回率(Recall)和查准率(Precision)。

准确率(Accuracy)的计算方式是所有分类对的样本数除以总样本数:

缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)

召回率(recall)指实际为异常样本中有多少被预测为异常,也被称为查全率、真阳性率(TPR):

缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)

而查准率(Precision)表示预测为异常的样本中有多少是实际为异常样本,也被称为精确率:

缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)

由于单纯的查准率和召回率会受正负样本不平衡的影响,引入了查准率和召回率的调和平均数F1,综合评估分类性能:

缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)

此外,在实际应用中,为了衡量模型的不足,还引入了误检率(FPR)来衡量模型的不足,它表示有多少负样本被错误地预测为正样本:

缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)

使用上述公式需要规定阈值进行分类,若阈值设置不合理,则评估结果将很难反馈分类性能,故需要定义一个与阈值无关的指标,来避免这种情况,也可更全面地评价分类性能。

通过设置一系列阈值,评价两个指标在不同阈值下的变化曲线。在缺陷检测的分类任务中,常用的曲线有两种:

1、PR曲线(Precision-recall curve),在不同阈值下,以召回率(recall)作为横坐标轴,查准率(precision)作为纵坐标轴绘制的曲线;

2、ROC曲线(Receiver operator characteristic curve),在不同阈值下,以误检率(FPR)作为横坐标轴,召回率(TPR)作为纵坐标轴绘制的曲线。对于ROC曲线,虚报的越少越好,即TPR保持很高,ROC曲线下的面积越大越好。

总结一下就是TPR越高,同时FPR越低(即ROC曲线越陡),那么模型的性能就越好。通常采用曲线下面积(Area Under Curve,AUC)来度量相应曲线指标所描述的性能,即本文采用的指标AUROC。

异常定位性能的评估

对于异常定位性能的评估,使用了AUROC和per-region-overlap(PRO)两个指标。与用于逐像素测量的AUROC不同,PRO分数平等地对待任何大小的异常区域。

异常定位性能评估一般是将缺陷概率的热力图设定阈值二值化后的结果与像素级别标签图对比计算。而二值化后的结果评价即可转换为分类问题,前文混淆矩阵及相应的评价指标便可由此评价定位性能,即像素级AUROC指标。

但ROC曲线中TPR值受缺陷面积影响,若正确定位面积大的异常区域(TP值会很大且TP/(TP+FN)会因为TP的比重大而变大)将会大幅提高TPR指标,但若错误定位小的缺陷区域(FP值会增大,但FP/(FP+))则不会有很大的影响,因此该指标在实际应用中存在局限。因此,Bergman等提出连通域级的指标PRO(Per-region-overlap)。如式,第一步将定位的缺陷结果和实际的真值按连通域划分为N个区域,接着求出每个区域中预测结果P和真值Gn的交集,将交集除以Gn后N个区域加权平均即可求得PRO值 。同时预测结果P和真值Gn的交集即真阳性样本TPn,故PRO也可根据混淆矩阵计算。
缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)
同样地,为了避免阈值对评估结果的影响,还可绘制PRO曲线来描述异常定位性能。对于PRO曲线,若FPR过高,则代表大面积的正常区域被定位为缺陷,此时由于大面积的区域被定位为缺陷,真正样本TPn的值也会很大,即PRO值很高,显然此时的高PRO不能很好地反应模型定位精度。因此,在用AUC评价PRO曲线时,只选用令FPR处于0-30%之间的阈值,并将AUC归一化作为PRO-Score,即本文使用的PRO分数。文章来源地址https://www.toymoban.com/news/detail-480355.html

到了这里,关于缺陷异常检测及定位性能评价指标–AUROC,PRO(per-region-overlap)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 目标检测评价指标

    IoU(交并比) 1、IOU的全称为交并比(Intersection over Union), 是目标检测中使用的一个概念,IoU计算的是“预测的边框”和“真实的边框”的交叠率,即它们的交集和并集的比值 。 2、IoU等于“预测的边框”和“真实的边框”之间交集和并集的比值。 IoU计算如下图,B1为真实

    2024年02月05日
    浏览(39)
  • 04- 评价指标mAP (目标检测)

    要点: Precision  (准确率 ): TP/(TP+FP) , 即模型给出的所有预测结果中命中真实目标的比例 。 Recall  (召回率): TP/(TP+FN) , 被找到的正确目标和所有正确目标的比值 。 官方文档: https://cocodataset.org/#detection-eval 参考文章: mAP的计算 TP   (True Positive): 一个正确的检测 ,检测

    2024年02月03日
    浏览(43)
  • 目标检测网络的常见评价指标

    声明:原视频链接https://www.bilibili.com/video/BV13k4y1m7DY?spm_id_from=333.880.my_history.page.click 下面是我的笔记,截图均来自原视频。 举例说明:单类物体检测时,以人脸检测为例。如图 绿色 实线和虚线框:人脸的真实标注 红色 的实线框和虚线框:算法的检测结果 框左上角的 红色数

    2024年02月06日
    浏览(44)
  • 目标检测常用评价指标及其计算方法

    前传耗时(ms) :从输入一张图像到输出最终结果所消耗的时间,包括前处理耗时(如图像归一化)、网络前传耗时、后处理耗时(如非极大值抑制); 每秒帧数FPS(Frames Per Second) :每秒中能处理的图像数量; 浮点运算量(FLOPS) :处理一张图像所需要的浮点运算数量,跟具体软

    2024年02月06日
    浏览(47)
  • 【详解】文本检测OCR模型的评价指标

    前言:网上关于评价标准乱七八糟的,有关于单词的,有关于段落的,似乎没见过谁解释一下常见论文中常用的评价指标具体是怎么计算的,比如DBNet,比如RCNN,这似乎好像默认大家都知道咋算了。 好吧,我不知道,我刚搞懂,做个笔记。 识别网络是最简单的,只有一个指

    2024年02月11日
    浏览(39)
  • 异常检测-缺陷检测-论文精读PaDiM

    我们提出了一个新的 Patch 分布建模框架,在单类学习的设置下,PaDiM 同时检测和定位图像中的异常。PaDiM 利用一个预先训练好的卷积神经网络 (CNN) 进行 patch 嵌入,利用多元高斯分布得到正常类的概率表示。它还利用了 CNN 的不同语义级别之间的相关性来更好地定位异常。P

    2024年02月10日
    浏览(45)
  • 目标检测重要评价指标——mAP的含义及计算

    目标检测常见评价指标 1. 公开数据集 评价标准:pascal voc, coco,目前基本都在使用coco数据集。 2.评价指标 mAP: mean Average Precision, 即所有类别AP的平均值。 下面将介绍相关参数含义。 理论知识 : TP(True Positive) :与目标框(ground truth) IoU0.5的检测框数量 (同一个Ground Truth 只计

    2023年04月09日
    浏览(39)
  • 【机器学习】全网最全模型评价指标(性能指标、YOLOv5训练结果分析、轻量化指标、混淆矩阵详解)【基础收藏】

    在目标检测任务中,我们常用的评价指标一般有两种,一种是使用Pascal VOC的评价指标,一种是更加严格的COCO评价指标,一般后者会更常用点。 如何判断一个检测结果是否正确。目前最常用的方式就是去计算检测框与真实框的IOU,然后 根据IOU去判别两个框是否匹配 。 常见指

    2024年02月04日
    浏览(48)
  • 【目标检测】评价指标:混淆矩阵概念及其计算方法(yolo源码)

    本篇文章首先介绍目标检测任务中的评价指标 混淆矩阵 的概念,然后介绍其在 yolo源码 中的实现方法。 目标检测中的评价指标: mAP概念及其代码实现(yolo源码/pycocotools) 混淆矩阵概念及其代码实现(yolo源码)   在分类任务中, 混淆矩阵(Confusion Matrix) 是一种可视化工具,主

    2024年02月02日
    浏览(51)
  • MATLAB算法实战应用案例精讲-【智能优化算法】多目标算法性能评价指标

    在评估多目标优化算法的效果时,我们通常使用五个主要指标:GD(Generational Distance)、IGD(Inverted Generational Distance)、Hypervolume、Spacing和Spread。 GD 和 IGD 是用于测量算法生成的解集合与真实前沿解之间的距离的指标。具体而言,GD测量了所有生成解与真实前沿解之间的平均欧

    2024年02月15日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包