多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测

这篇具有很好参考价值的文章主要介绍了多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

多目标跟踪数据集 MOT16 、MOT1数据集介绍:

1. MOT16 数据集

数据集百度网分享:
点击此处
提取码: miao
文件格式:

解压MOT16后在文件夹下面有两个目录:testtrain。分别代表训练集和测试集。
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测

多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
这两个目录分别有7个子目录。 每个子目录下都是一段视频的抽帧图片及标注。由于train里面的内容比较全,train里面的数据比test多了一个ground truth,所以下面以train为例介绍。

** MOT16-02**

在“MOT16\train\MOT16-02”目录下有三个目录和一个文件,三个目录分别是:det、gt和img1。一个文件是seqinfo.ini.

多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
det文件:

det目录下只有一个det.txt文件,每行一个标注,代表一个检测的物体。
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测

上面每行数字中的含义是:

<frame>, <id>, <bb_left>, <bb_top>, <bb_width>, <bb_height>, <conf>, <x>, <y>, <z> 

第一个代表第几帧,第二个代表轨迹编号(在这个文件里总是为-1),bb开头的4个数代表物体框的左上角坐标及长宽。conf代表置信度,最后3个是MOT3D用到的内容,2D检测总是为-1.

img1:

这个目录下就是把视频一帧帧抽取出来的图片,总共600张。文件名则是从000001.jpg到000600.jpg。
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
gt文件:
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
第一个代表第几帧,第二个值为目标运动轨迹的ID号,第3个到第六个数代表物体框的左上角坐标及长宽,第7个值为目标轨迹是否进入考虑范围内的标志,0表示忽略,1表示active。第八个值为该轨迹对应的目标种类(种类见下面的表格中的label-ID对应情况),第九个值为box的visibility ratio,表示目标运动时被其他目标box包含/覆盖或者目标之间box边缘裁剪情况。
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测

seqinfo.ini文件
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
主要介绍视频的帧率、分辨率等基本信息。

2. MOT17数据集介绍

百度网盘链接:点击此处
提取码:miao

下载后,解压如下:
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测

多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
在“MOT17\train\MOT17-02”目录下有三个目录和一个文件,三个目录分别是:det、gt和img1。一个文件是seqinfo.ini.

多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
内容跟16相同

3. 指标计算

3.1 基础评测指标

1、ID Switches (ID Sw.): 被跟踪目标身份发生错误地更改时被称为身份跳变。在对视频序列的跟踪过程当中,ID Sw.表示所有跟踪目标身份交换的次数。

2、Frames Per Second (FPS): 多目标跟踪器的跟踪速度。

3、False Positives (FP): 在视频序列中不能与 真实轨迹的边界框 相匹配的 假设边界框 被称为假阳性;即本来是假的,预测认为是真的。FP 表示整个视频序列中假阳性的数量。

4、False Negatives (FN): 在视频序列中不能与 假设边界框 相匹配的 真实轨迹的边界框 被称为假阴性;即本来是真的,预测认为是假的。FN 表示整个视频序列中假阴性的数量。

5、Mostly Tracked tracklets (MT):在跟踪过程中各个目标至少有 80%的视频帧都能被正确地跟踪的跟踪轨迹数量。

6、Mostly Lost tracklets (ML):在跟踪过程中各个目标至多有 20%的视频帧能被正确地跟踪的跟踪轨迹数量。

7、Fragments (Frag):真实跟踪轨迹由于某种原因发生中断并在后来又继续被准确跟踪上被称为跟踪碎片。Frag 表示整个视频序列中碎片的总数。

以上 7 种评测指标主要度量多目标跟踪器的基础性能,其中加粗的比较常用;为了进一步评判多目标跟踪器的综合性能,出现了其他指标。

3.2 MOTA和MOTP

CLEAR MOT 指标提出了 多目标跟踪精度MOTA 和 多目标跟踪准确度MOTP 两个综合性的指标,这两个指标能够衡量多目标跟踪器在整体上的性能好坏。

MOTA(Multiple Object Tracking Accuracy) :MOTA主要考虑的是tracking中所有对象匹配错误,给出的是非常直观的衡量跟踪其在检测物体和保持轨迹时的性能,与目标检测精度无关,MOTA取值小于100,但是当跟踪器产生的错误超过了场景中的物体,MOTA可以变为负数。

MOTP(Multiple Object Tracking Precision) : 是使用bonding box的overlap rate来进行度量(在这里MOTP是越大越好,但对于使用欧氏距离进行度量的就是MOTP越小越好,这主要取决于度量距离d的定义方式) MOTP主要量化检测器的定位精度,几乎不包含与跟踪器实际性能相关的信息。

MOTA&MOTP是计算所有帧相关指标后再进行平均的

3.3 IDP、IDR、IDF

IDP : 识别精确度

整体评价跟踪器的好坏,识别精确度 IDP 的分数如下进行计算:
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
IDR:识别召回率

它是当IDF1-score最高时正确预测的目标数与真实目标数之比,识别召回率 IDR 的分数如下进行计算:
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
IDF1:平均数比率

IDF1是指正确的目标检测数与真实数和计算检测数和的平均数比率,这里, IDF1的分数如下进行计算:
I D F 1 = I D T P I D T P + 0.5 I D F P + 0.5 I D F N IDF1=\frac{I D T P}{I D T P+0.5 I D F P+0.5 I D F N} IDF1=IDTP+0.5IDFP+0.5IDFNIDTP

上述公式中,IDTP 可以看作是在整个视频中检测目标被正确分配的数量,IDFN 在整个视频中检测目标被漏分配的数量,IDFP 在整个视频中检测目标被错误分配的数量。

4. 指标评测过程:

以MOT16数据集 评测 Deepsort为例,计算MOTA、 MOTP 、IDSwitch 、IDP 、IDR、IDF1、

  1. 首先准备数据集 上面博客中已经给出数据集下载地址,然后搭建自己的Deepsort跟踪模型,然后以 MOT16数据集中的 下文件为例进行计算:

多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
因为官网的MOT16-02视频分辨率和数据集中的不同,因此,写一段代码将数据集中的图像帧合并成视频。

600张图片如下:

多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测

代码:

import os

import cv2

video_writer = cv2.VideoWriter("result.mp4", cv2.VideoWriter_fourcc(*"mp4v"), 30, (1920, 1080))
images_path = "img1"
images_list = os.listdir(images_path)
images_list.sort()

for image_name in images_list:
    image = cv2.imread(os.path.join(images_path, image_name))
    video_writer.write(image)
    show = cv2.resize(image, (1280, 720))
    cv2.imshow("test", show)
    if cv2.waitKey(10) != ord('q'):
        pass

结果为:

MOT16-02

然后使用此视频,用Deepsort代码进行跟踪,会生成一个txt文件和一个跟踪结果视频的文件。
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测
多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测

然后使用这个txt 文件,并将此数据集重命名为deep_ts.txt 将其和数据集中的 gt.txt 使用下面代码进行评估。

import os
import numpy as np
import pandas as pd
import matplotlib.pyplot as plt
import motmetrics as mm

# 用于正常显示中文
plt.rcParams['font.sans-serif'] = ['SimHei']
# 用来正常显示符号
plt.rcParams['axes.unicode_minus'] = False

mm.lap.default_solver = 'lap'

gt_file = "./gt.txt"

deep_ts_file = "./deep_ts.txt"


gt = mm.io.loadtxt(gt_file, fmt="mot16", min_confidence=1)

deep_ts = mm.io.loadtxt(deep_ts_file, fmt="mot16")



deep_ts = deep_ts.sort_values(by=["Id", "FrameId"])



deep_acc = mm.utils.compare_to_groundtruth(gt, deep_ts, 'iou', distth=0.5)


mh = mm.metrics.create()
metrics = ['num_frames', 'num_switches', 'idp', 'idr', 'idf1', 'mota', 'motp', 'precision', 'recall']

deep_summary = mh.compute(deep_acc, metrics=metrics, name='deepsort')

summary = pd.concat([deep_summary], axis=0, join='outer', ignore_index=False)

if os.path.exists("result.csv"):
    os.remove("result.csv")
summary.to_csv("result.csv")

会得到Deepsort的MOTA、 MOTP 、IDSwitch 、IDP 、IDR、IDF1指标。文章来源地址https://www.toymoban.com/news/detail-436845.html

到了这里,关于多目标跟踪数据集 :mot16、mot17数据集介绍以及多目标跟踪指标评测的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【多目标追踪算法】多目标跟踪评价指标

    yolov5+deepsort 多目标跟踪算法实践 评价指标总览: 这种指标可以衡量算法跟踪目标的准确性。IDsw (ID switches)度量用于统计MOT算法在对象之间切换的次数。多目标跟踪精度(MOTA)指标将假阳性率、假阴性率和错配率组合成一个数字,为整体跟踪性能提供一个相当合理的数量。尽管

    2024年02月04日
    浏览(45)
  • 最新目标跟踪评估指标汇总

    前段时间接触了一些目标跟踪的场景,本文主要汇总目标跟踪的常用评估指标,主要包括下面几类: 容易理解的概念:FP、FN、TP、id switch、ML、MT 更加综合的概念:MOTA、IDF1、MOTP、HOTA 主要的介绍集中在HOTA ,因为这个评估指标比较新,我能看到的讲解都比较少一点,所以展开

    2024年02月04日
    浏览(39)
  • 计算机视觉——【数据集】MOT17、COCO数据输入格式、数据集可视化脚本

    写在前面:本篇博文的目的是1. 理清MOT17数据集中文件及其内容的含义;2. COCO数据输入格式和YOLO数据输入格式和VOC数据输入格式的区别;3. 提供一个数据集可视化脚本,可以选中某个数据集,将该数据集中的groundtruth可视化在jpg上并生成视频播放。 数据格式的含义: 数据集

    2024年02月08日
    浏览(45)
  • MS COCO数据集的评价标准以及不同指标的选择推荐(AP、mAP、MS COCO、AR、@、0.5、0.75、1、目标检测、评价指标)

    目标检测模型性能衡量指标、MS COCO 数据集的评价标准以及不同指标的选择推荐 目标检测模型通过 pycocotools 在验证集上会得到 COCO 的评价列表,具体参数的含义是什么呢? PASCAL VOC Microsoft COCO(MS COCO) 在 MS COCO 数据集出来之前,目标检测基本上用的是 PASCAL VOC 数据集,现在

    2024年02月08日
    浏览(53)
  • VOC数据集介绍以及读取(目标检测object detection)

    VOC(Visual Object Classes)数据集是一个广泛使用的计算机视觉数据集,主要用于目标检测、图像分割和图像分类等任务。VOC数据集最初由英国牛津大学的计算机视觉小组创建,并在PASCAL VOC挑战赛中使用。 VOC数据集包含各种不同类别的标记图像,每个图像都有与之相关联的边界

    2024年02月12日
    浏览(39)
  • 基于yolo v5与Deep Sort进行车辆以及速度检测与目标跟踪实战

    项目实验结果展示: 基于yolo v5与Deep Sort进行车辆以及速度检测与目标跟踪实战——项目可以私聊 该项目可以作为毕业设计,以及企业级的项目开发,主要包含了车辆的目标检测、目标跟踪以及车辆的速度计算,同样可以进行二次开发。 这里附上主要的检测代码 项目需求+

    2024年02月14日
    浏览(56)
  • 【MOT】目标追踪DeepSORT与ByteTrack

    匹配算法: SORT算法: Kalman滤波, 匈牙利算法(匹配算法), 马氏距离(损失指标); Kalman滤波是通过对上一帧每个检测对象进行预测,得到一个BBox_predicted,然后再将predicted与当前帧的检测对象BBox_measure进行匹配,这样的话就能固定ID了; 如果不用Kalman滤波,将当前帧的BBox_m

    2023年04月25日
    浏览(35)
  • 利用红外-可见光图像数据集OTCBVS打通图像融合、目标检测和目标跟踪

    本文记录在云服务器autodl上选择安装cuda、cudnn开始,部署相同视角、相同时间、相同地点拍摄的红外和可见光图像数据集OTCBVS在Github目前开源的图像融合PIAFusion、目标检测Yolo-v4、目标跟踪DeepSort算法上实现单数据集贯通。 本文只做到以下几点: 1、列举常见红外-可见光图像数

    2024年02月04日
    浏览(47)
  • 10. 机器学习-评测指标

    Hi,你好。我是茶桁。 之前的课程中,我们学习了两个最重要的回归方法,一个线性回归,一个逻辑回归。也讲解了为什么学习机器学习要从逻辑回归和线性回归讲起。因为我们在解决问题的时候,有限选择简单的假设,越复杂的模型出错的概率也就越高。 本节课中,我们要

    2024年02月07日
    浏览(30)
  • 【课程介绍】OpenCV 基础入门教程:图像读取、显示、保存,图像处理和增强(如滤波、边缘检测、图像变换),特征提取和匹配,目标检测和跟踪

    [ 专栏推荐 ] 😃 《视觉探索: OpenCV 基础入门教程》 😄 ❤️【简介】: Opencv 入门课程适合初学者,旨在介绍 Opencv 库的基础知识和核心功能。课程包括图像读取、显示、保存,图像处理和增强(如滤波、边缘检测、图像变换),特征提取和匹配,目标检测和跟踪等内容。学

    2024年02月16日
    浏览(398)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包