一、介绍
Github 仓库:
https://github.com/Deci-AI/super-gradients/blob/master/YOLONAS.md
1.1 亮点
- 参考QARepVGG,该方案引入了QSP与QCI模块以同时利用重参数与8-bit量化的优化;
- 该方案采用AutoNAC搜索最优尺寸、每个stage的结构,含模块类型、数量以及通道数;
- 采用混合量化机制进行模型量化,既考虑了每一层对精度与延迟的影响,也考虑了8-bit与16-bit之间切换对整体延迟的影响;
- 预训练方案:automatically labeled data, self-distillation, and large datasets
总而言之,YOLO-NAS达成目标检测任务新高度,取得了最佳的精度-延迟均衡。值得一提的事,YOLO-NAS与TensorRT推理引擎完全兼容,且支持INT8量化,达成前所未有的运行时性能。
1.2 方案简介
受启发于YOLOv6、YOLOv7以及YOLOv8,DECI的研究人员采用AutoNAC搜索比YOLOv8更优的架构,即"We used machine learning to find a new deep learning architecture!"
为什么要用AutoNAC呢? 这是因为手工寻找"正确"结构过于低效且乏味,因此DECI的研究人员采用AutoNAC搜索新的目标检测模型,同时最小化在NVIDIA T4上的推理延迟。
为构建YOLO-NAS,作者构建了一个深不可测的搜索空间(1014)以探索精度-延迟上限。最终,作者从中三样三个"前沿观察点"构建了YOLO-NAS-S,YOLO-NAS-M,YOLO-NAS-L。
1.3 训练简介
YOLO-NAS采用了多阶段训练方式,包含:
- 预训练:Object365+COCO伪标签数据
- 知识蒸馏
- DFL,即Distribution Focal Loss
Deci 很高兴地宣布发布新的对象检测模型 YOLO-NAS - 对象检测领域的游戏规则改变者,提供卓越的实时对象检测功能和生产就绪性能。 Deci 的使命是为 AI 团队提供工具,以消除开发障碍并更快地获得高效的推理性能。
在训练数据方面,作者基于RoboFlow100(由100个不同领域的数据集构成)进行训练以验证其处理复杂检测任务的能力。
我们展示了 YOLO-NAS 在下游任务上的出色性能。 在 Roboflow-100 上进行微调时,我们的 YOLO-NAS 模型比最接近的竞争对手实现了更高的 mAP:
YOLO-NAS 的架构采用量化感知块和选择性量化来优化性能。 当转换为 INT8 量化版本时,与在量化过程中损失 1-2 个 mAP 点的其他模型相比,YOLO-NAS 的精度下降较小(S、M 和 L 变体的 mAP 为 0.51、0.65 和 0.45 点)。 这些技术最终形成了具有卓越物体检测功能和一流性能的创新架构。
二、使用案例
首先安装对应的包:
%%capture
!pip install super-gradients==3.2.0
!pip install imutils
!pip install roboflow
!pip install pytube --upgrade
!pip install torchinfo
当运行%%capture之后,接下来的代码单元是用于安装一些Python库和依赖项的命令。这些命令通过pip(Python包管理器)来安装所需的库。以下是对每个命令的解释:
-
!pip install super-gradients==3.2.0:
这是用于安装名为super-gradients的Python库的命令,同时指定了特定版本号3.2.0。 -
!pip install imutils:
这是用于安装名为imutils的Python库的命令,通常用于图像处理和计算机视觉任务。 -
!pip install roboflow:
这是用于安装名为roboflow的Python库的命令,通常用于机器学习和计算机视觉中的数据预处理和数据管理。 -
!pip install pytube --upgrade:
这是用于升级名为pytube的Python库的命令,pytube通常用于从YouTube上下载视频。 -
!pip install torchinfo:
这是用于安装名为torchinfo的Python库的命令,torchinfo通常用于查看PyTorch模型的详细信息。
from super_gradients.training import models
yolo_nas_l = models.get("yolo_nas_l", pretrained_weights="coco")
这段代码使用了super_gradients库中的training.models模块来获取一个名为yolo_nas_l的预训练模型,并加载了预训练权重。
from super_gradients.training import models:
这行代码从super_gradients库中的training.models模块中导入了models。
yolo_nas_l = models.get(“yolo_nas_l”, pretrained_weights=“coco”):这行代码调用models.get()函数,以获取名为yolo_nas_l的预训练模型。预训练模型的选择是通过传递字符串参数"yolo_nas_l"来完成的。此模型似乎是一个YOLO(You Only Look Once)目标检测模型的变体。
pretrained_weights=“coco”:这是一个额外的参数,指定了要使用的预训练权重。"coco"表示该模型在COCO(Common Objects in Context)数据集上进行了预训练,该数据集包含各种对象的图像和标签。
最终,yolo_nas_l将包含加载的预训练模型,我们可以使用它进行目标检测任务,或在其基础上进行微调以适应特定任务或数据集。这个模型对象将具有预训练权重,这意味着它在COCO数据集上训练过,可以用于对象检测任务。
from torchinfo import summary
summary(model=yolo_nas_l,
input_size=(16, 3, 640, 640),
col_names=["input_size", "output_size", "num_params", "trainable"],
col_width=20,
row_settings=["var_names"]
)
这段代码使用了torchinfo库中的summary函数来生成关于模型结构和参数的摘要信息,并使用特定的参数来配置输出的格式。
from torchinfo import summary:
这行代码导入了torchinfo库中的summary函数,该函数用于生成有关PyTorch模型的摘要信息。
summary(model=yolo_nas_l, input_size=(16, 3, 640, 640), col_names=["input_size", "output_size", "num_params", "trainable"], col_width=20, row_settings=["var_names"]):
这是summary函数的调用,它接受多个参数来生成模型摘要:
model=yolo_nas_l:
这指定要分析的模型是yolo_nas_l,即之前通过super_gradients库加载的模型。
input_size=(16, 3, 640, 640):
这指定了输入张量的大小,其中(16, 3, 640, 640)表示批处理大小为16,通道数为3(RGB图像),图像大小为640x640。
col_names=["input_size", "output_size", "num_params", "trainable"]:
这是一个字符串列表,指定了生成的摘要表格的列名称。摘要表格将包括输入大小、输出大小、参数数量和可训练参数数量等列。
col_width=20:
这指定了表格中每列的宽度,以确保信息的可读性。
row_settings=["var_names"]:
这是一个字符串列表,指定了在每行中显示的其他信息。在此示例中,它设置为[“var_names”],表示每行将显示变量的名称。
最终,该代码将生成一个表格,其中包含关于yolo_nas_l模型结构和参数的摘要信息。这个摘要信息包括输入和输出大小、总参数数量以及可训练参数数量,帮助我们更好地了解模型的结构和规模。
image_path = "D:/CodeProject/Yolov8/2.jpg"
yolo_nas_l.predict(image_path, conf = 0.25).show()
这段代码使用了一个名为yolo_nas_l的模型来进行目标检测,并显示检测结果的图像。
image_path = "D:/CodeProject/Yolov8/2.jpg":
这行代码指定了要进行目标检测的输入图像的文件路径。图像的路径是"D:/CodeProject/Yolov8/2.jpg"。
yolo_nas_l.predict(image_path, conf = 0.25):
这是使用模型进行目标检测的部分。yolo_nas_l是之前加载的预训练目标检测模型。predict函数接受输入图像的路径以及一个conf参数,用于设置检测的置信度阈值。
image_path:这是输入图像的路径,告诉模型要在哪个图像上执行目标检测。
conf=0.25:这个参数指定了置信度阈值,它控制了哪些检测框被保留。在这种情况下,只有置信度大于或等于0.25的检测结果才会被保留。
.show():这是在目标检测后显示检测结果的方法。它将绘制检测框和类别标签等信息在输入图像上,并显示出来。
综合起来,这段代码的作用是使用yolo_nas_l模型对指定路径的图像进行目标检测,并显示出检测结果的图像,其中仅显示置信度大于等于0.25的检测结果。这是一个常见的用法,用于检测图像中的物体并可视化检测结果。文章来源:https://www.toymoban.com/news/detail-773806.html
文章来源地址https://www.toymoban.com/news/detail-773806.html
到了这里,关于【计算机视觉 | 目标检测】YOLO-NAS的介绍以及如何使用?(含源代码)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!