Yolov8不废话!参考手册!

这篇具有很好参考价值的文章主要介绍了Yolov8不废话!参考手册!。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Yolov8使用

yolo task=detect mode=train model=yolov8n.pt       args...
          classify    predict     yolov8n-cls.yaml args...
          segment     val         yolov8n-seg.yaml args...
          export                  yolov8n.pt       format=onnx args...

使用Ultralytics YOLO进行模型训练

* 如COCO、VOC、ImageNet等YOLOv8数据集在首次使用时会自动下载,即 `yolo train data=coco.yaml`

使用示例

姿态模型

from ultralytics import YOLO

# 加载模型
model = YOLO('yolov8n-pose.yaml')  # 从YAML构建一个新模型
model = YOLO('model/yolov8n-pose.pt')  # 加载一个预训练模型(推荐用于训练)
model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt')  # 从YAML构建并传输权重

# 训练模型
results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640)
# 从YAML构建一个新模型并从头开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640

# 从一个预训练的*.pt模型开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640

# 从YAML构建一个新模型,传输预训练权重并开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640

目标检测

from ultralytics import YOLO

# 加载模型
model = YOLO('yolov8n.yaml')  # 从YAML构建新模型
model = YOLO('model/yolov8n.pt')  # 加载预训练模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # 从YAML构建并转移权重

# 训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
# 从YAML构建新模型并从头开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640

# 从预训练的*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640

# 从YAML构建新模型,传递预训练权重并开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

数据集格式

在COCO128数据集上训练YOLOv8n模型100个时期,图像大小为640。可以使用device
参数指定训练设备。如果没有传递参数,并且有可用的GPU,则将使用GPU device=0,否则将使用device=cpu。有关完整列表的训练参数,请参见下面的参数部分。

!!! 示例 “单GPU和CPU训练示例”

设备将自动确定。如果有可用的GPU,那么将使用它,否则将在CPU上开始训练。

from ultralytics import YOLO

# 加载一个模型
model = YOLO('yolov8n.yaml')  # 从YAML建立一个新模型
model = YOLO('model/yolov8n.pt')  # 加载预训练模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt')  # 从YAML建立并转移权重

# 训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
# 从YAML构建新模型,从头开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640

# 从预训练*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640

# 从YAML构建一个新模型,转移预训练权重,然后开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640

多GPU训练

多GPU训练通过在多个GPU上分布训练负载,实现对可用硬件资源的更有效利用。无论是通过Python API还是命令行界面,都可以使用此功能。
若要启用多GPU训练,请指定您希望使用的GPU设备ID。

要使用2个GPU进行训练,请使用CUDA设备0和1,使用以下命令。根据需要扩展到更多GPU。

from ultralytics import YOLO

# 加载模型
model = YOLO('model/yolov8n.pt')  # 加载预训练模型(推荐用于训练)

# 使用2个GPU训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1])
# 使用GPU 0和1从预训练*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1

恢复中断的训练

在处理深度学习模型时,从之前保存的状态恢复训练是一个关键特性。在各种情况下,这可能很方便,比如当训练过程意外中断,或者当您希望用新数据或更多时期继续训练模型时。

恢复训练时,Ultralytics YOLO将加载最后保存的模型的权重,并恢复优化器状态、学习率调度器和时期编号。这允许您无缝地从离开的地方继续训练过程。

在Ultralytics YOLO中,您可以通过在调用train方法时将resume参数设置为True并指定包含部分训练模型权重的.pt
文件路径来轻松恢复训练。

下面是使用Python和命令行恢复中断训练的示例:

from ultralytics import YOLO

# 加载模型
model = YOLO('path/to/last.pt')  # 加载部分训练的模型

# 恢复训练
results = model.train(resume=True)
# 恢复中断的训练
yolo train resume model=path/to/last.pt

通过设置resume=Truetrain函数将从’path/to/last.pt’文件中存储的状态继续训练。如果省略resume
参数或将其设置为Falsetrain函数将启动新的训练会话。

请记住,默认情况下,检查点会在每个时期结束时保存,或者使用save_period参数以固定间隔保存,因此您必须至少完成1个时期才能恢复训练运行。

参数

YOLO模型的训练设置是指用于对数据集进行模型训练的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。一些常见的YOLO训练设置包括批大小、学习率、动量和权重衰减。其他可能影响训练过程的因素包括优化器的选择、损失函数的选择以及训练数据集的大小和组成。仔细调整和实验这些设置以实现给定任务的最佳性能是非常重要的。

描述
model None 模型文件路径,例如 yolov8n.pt, yolov8n.yaml
data None 数据文件路径,例如 coco128.yaml
epochs 100 训练的轮次数量
patience 50 早停训练的等待轮次
batch 16 每批图像数量(-1为自动批大小)
imgsz 640 输入图像的大小,以整数表示
save True 保存训练检查点和预测结果
save_period -1 每x轮次保存检查点(如果<1则禁用)
cache False True/ram, disk 或 False。使用缓存加载数据
device None 运行设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpu
workers 8 数据加载的工作线程数(如果DDP则为每个RANK)
project None 项目名称
name None 实验名称
exist_ok False 是否覆盖现有实验
pretrained True (bool 或 str) 是否使用预训练模型(bool)或从中加载权重的模型(str)
optimizer 'auto' 使用的优化器,选择范围=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto]
verbose False 是否打印详细输出
seed 0 随机种子,用于可重复性
deterministic True 是否启用确定性模式
single_cls False 将多类数据作为单类训练
rect False 矩形训练,每批为最小填充整合
cos_lr False 使用余弦学习率调度器
close_mosaic 10 (int) 最后轮次禁用马赛克增强(0为禁用)
resume False 从最后检查点恢复训练
amp True 自动混合精度(AMP)训练,选择范围=[True, False]
fraction 1.0 训练的数据集比例(默认为1.0,即训练集中的所有图像)
profile False 在训练期间为记录器分析ONNX和TensorRT速度
freeze None (int 或 list, 可选) 在训练期间冻结前n层,或冻结层索引列表
lr0 0.01 初始学习率(例如 SGD=1E-2, Adam=1E-3)
lrf 0.01 最终学习率 (lr0 * lrf)
momentum 0.937 SGD动量/Adam beta1
weight_decay 0.0005 优化器权重衰减5e-4
warmup_epochs 3.0 热身轮次(小数ok)
warmup_momentum 0.8 热身初始动量
warmup_bias_lr 0.1 热身初始偏差lr
box 7.5 框损失增益
cls 0.5 cls损失增益(根据像素缩放)
dfl 1.5 dfl损失增益
pose 12.0 姿态损失增益(仅限姿态)
kobj 2.0 关键点obj损失增益(仅限姿态)
label_smoothing 0.0 标签平滑(小数)
nbs 64 标称批大小
overlap_mask True 训练期间掩码应重叠(仅限分割训练)
mask_ratio 4 掩码降采样比率(仅限分割训练)
dropout 0.0 使用dropout正则化(仅限分类训练)
val True 训练期间验证/测试

记录

在训练YOLOv8模型时,跟踪模型随时间的性能变化可能非常有价值。这就是记录发挥作用的地方。Ultralytics的YOLO提供对三种类型记录器的支持 -
Comet、ClearML和TensorBoard。

要使用记录器,请在上面的代码片段中的下拉菜单中选择它并运行。所选的记录器将被安装和初始化。

TensorBoard

TensorBoard
是TensorFlow的可视化工具包。它允许您可视化TensorFlow图表,绘制有关图表执行的定量指标,并展示通过它的附加数据,如图像。

在Google Colab
中使用TensorBoard:

load_ext tensorboard
tensorboard --logdir ultralytics/runs  # 替换为'runs'目录

在本地使用TensorBoard,运行下面的命令并在 http://localhost:6006/ 查看结果。

tensorboard --logdir ultralytics/runs  # 替换为'runs'目录

这将加载TensorBoard并将其定向到保存训练日志的目录。

在设置好日志记录器后,您可以继续进行模型训练。所有训练指标将自动记录在您选择的平台中,您可以访问这些日志以监控模型随时间的表现,比较不同模型,并识别改进的领域。

Ultralytics YOLO 的模型导出

使用示例

将 YOLOv8n 模型导出为 ONNX 或 TensorRT 等不同格式。查看下面的参数部分,了解完整的导出参数列表。

from ultralytics import YOLO

# 加载模型
model = YOLO('model/yolov8n.pt')  # 加载官方模型
model = YOLO('path/to/best.pt')  # 加载自定义训练的模型

# 导出模型
model.export(format='onnx')
yolo export model=yolov8n.pt format=onnx  # 导出官方模型
yolo export model=path/to/best.pt format=onnx  # 导出自定义训练的模型

参数

YOLO 模型的导出设置是指用于在其他环境或平台中使用模型时保存或导出模型的各种配置和选项。这些设置会影响模型的性能、大小和与不同系统的兼容性。一些常见的
YOLO 导出设置包括导出的模型文件格式(例如 ONNX、TensorFlow SavedModel)、模型将在哪个设备上运行(例如
CPU、GPU)以及是否包含附加功能,如遮罩或每个框多个标签。其他可能影响导出过程的因素包括模型用途的具体细节以及目标环境或平台的要求或限制。重要的是要仔细考虑和配置这些设置,以确保导出的模型针对预期用例经过优化,并且可以在目标环境中有效使用。

描述
format 'torchscript' 导出的格式
imgsz 640 图像尺寸,可以是标量或 (h, w) 列表,比如 (640, 480)
keras False 使用 Keras 导出 TF SavedModel
optimize False TorchScript:为移动设备优化
half False FP16 量化
int8 False INT8 量化
dynamic False ONNX/TensorRT:动态轴
simplify False ONNX/TensorRT:简化模型
opset None ONNX:opset 版本(可选,默认为最新版本)
workspace 4 TensorRT:工作区大小(GB)
nms False CoreML:添加 NMS

导出格式

下表中提供了可用的 YOLOv8 导出格式。您可以使用 format 参数导出任何格式的模型,比如 format='onnx'format='engine'

格式 format 参数 模型 元数据 参数
PyTorch - yolov8n.pt -
TorchScript torchscript yolov8n.torchscript imgsz, optimize
ONNX onnx yolov8n.onnx imgsz, half, dynamic, simplify, opset
OpenVINO openvino yolov8n_openvino_model/ imgsz, half
TensorRT engine yolov8n.engine imgsz, half, dynamic, simplify, workspace
CoreML coreml yolov8n.mlpackage imgsz, half, int8, nms
TF SavedModel saved_model yolov8n_saved_model/ imgsz, keras
TF GraphDef pb yolov8n.pb imgsz
TF Lite tflite yolov8n.tflite imgsz, half, int8
TF Edge TPU edgetpu yolov8n_edgetpu.tflite imgsz
TF.js tfjs yolov8n_web_model/ imgsz
PaddlePaddle paddle yolov8n_paddle_model/ imgsz
ncnn ncnn yolov8n_ncnn_model/ imgsz, half

Yolov8 训练代码+部署事例+参考手册 1G资料

下载链接:点击下载
Yolov8不废话!参考手册!,YOLO,python,开发语言,机器学习,计算机视觉,yolov8,人工智能文章来源地址https://www.toymoban.com/news/detail-818274.html

到了这里,关于Yolov8不废话!参考手册!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 改进YOLO系列:改进YOLOv8,教你YOLOv8如何添加20多种注意力机制,并实验不同位置。

    注意力机制(Attention Mechanism)是深度学习中一种重要的技术,它可以帮助模型更好地关注输入数据中的关键信息,从而提高模型的性能。注意力机制最早在自然语言处理领域的序列到序列(seq2seq)模型中得到广泛应用,后来逐渐扩展到了计算机视觉、语音识别等多个领域。

    2024年02月16日
    浏览(39)
  • 从YOLOv1到YOLOv8的YOLO系列最新综述【2023年4月】

    作者: Juan R. Terven 、 Diana M. Cordova-Esparaza 摘要: YOLO已经成为 机器人 、 无人驾驶汽车 和 视频监控应用 的核心实时物体检测系统。我们对YOLO的演变进行了全面的分析,研究了从最初的YOLO到YOLOv8每次迭代的创新和贡献。我们首先描述了标准指标和后处理;然后,我们讨论了

    2024年02月04日
    浏览(58)
  • YoloV8改进策略:Block改进|Mamba-UNet改进YoloV8,打造全新的Yolo-Mamba网络

    本文尝试使用Mamba的VSSBlock替换YoloV8的Bottleneck,打造最新的Yolo-Mamba网络。 在医学图像分析的最新进展中,卷积神经网络(CNN)和视觉转换器(ViT)都取得了显著的基准成绩。前者通过其卷积操作在捕获局部特征方面表现出色,而后者则通过利用自注意力机制实现了出色的全局

    2024年02月20日
    浏览(59)
  • 【YOLO】Windows 下 YOLOv8 使用 TensorRT 进行模型加速部署

    本文全文参考文章为 win10下 yolov8 tensorrt模型加速部署【实战】 本文使用的代码仓库为 TensorRT-Alpha 注:其他 Yolov8 TensorRT 部署项目:YOLOv8 Tensorrt Python/C++部署教程 安装Visual Studio 2019或者Visual Studio 2022、Nvidia驱动 安装cuda,cudnn、opencv、tensorrt并进行相应的环境配置,这里不做配

    2024年02月11日
    浏览(34)
  • YOLO-NAS对象检测算法再一次颠覆YOLO系列算法——已超越YOLOv8

    对象检测彻底改变了机器感知和解释人类世界的方式。这是计算机视觉中一项特别关键的任务,使机器能够识别和定位图像或视频中的物体。如自动驾驶汽车、面部识别系统等。推动对象检测进步的一个关键因素是发明了神经网络架构。强大的神经网络推动了对象检测的进步

    2024年02月09日
    浏览(37)
  • 【YOLO】YOLOv8实操:环境配置/自定义数据集准备/模型训练/预测

    源码链接:https://github.com/ultralytics/ultralytics yolov8和yolov5是同一作者,相比yolov5,yolov8的集成性更好了,更加面向用户了 YOLO命令行界面(command line interface, CLI) 方便在各种任务和版本上训练、验证或推断模型。CLI不需要定制或代码,可以使用yolo命令从终端运行所有任务。 如果

    2023年04月24日
    浏览(58)
  • 目标检测YOLO实战应用案例100讲-基于改进的 YOLOv8 小目标检测

    目录 前言 研究现状 传统目标检测算法 基于卷积神经网络的目标检测算法

    2024年02月07日
    浏览(45)
  • 【YOLO】基于YOLOv8实现自定义数据的自动标注(针对VOC格式的数据集)

    利用yolov8的检测模型实现数据集的自标注,针对VOC数据集,.xml文件,labelimg标注工具 yolov8模型的训练可以参考笔者的博客 【YOLO】YOLOv8实操:环境配置/自定义数据集准备/模型训练/预测 训练好自定义的模型,就可以执行下面的代码实现模型自标注数据集 修改下面三个参数即

    2024年02月11日
    浏览(46)
  • ADA-YOLO:YOLOv8+注意力+Adaptive Head,mAP提升3%

    生物医学图像分析中的目标检测和定位至关重要,尤其是在血液学领域,检测和识别血细胞对于诊断和治疗决策至关重要。虽然基于注意力的方法在各个领域中目标检测方面取得了显著的进展,但由于医学影像数据集的独特挑战,其在医学目标检测中的应用受到了限制。 为了

    2024年01月17日
    浏览(38)
  • YOLOv8教程系列:二、为YOLO系列数据集添加背景图片,降低误识别率

    在自己的工作空间里新建一个create_xml.py的文件,将下述代码复制进去 新建一个保存xml的文件夹,将脚本的74行的JpgPath和XmlPath修改为自己的文件夹路径,这是我的background文件夹: 这是我运行成功的截图 这是新生成的xml文件 最后,将图片和xml都复制到对应的待训练文件夹中,

    2024年02月13日
    浏览(42)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包