Yolov8使用
yolo task=detect mode=train model=yolov8n.pt args...
classify predict yolov8n-cls.yaml args...
segment val yolov8n-seg.yaml args...
export yolov8n.pt format=onnx args...
使用Ultralytics YOLO进行模型训练
* 如COCO、VOC、ImageNet等YOLOv8数据集在首次使用时会自动下载,即 `yolo train data=coco.yaml`
使用示例
姿态模型
from ultralytics import YOLO
# 加载模型
model = YOLO('yolov8n-pose.yaml') # 从YAML构建一个新模型
model = YOLO('model/yolov8n-pose.pt') # 加载一个预训练模型(推荐用于训练)
model = YOLO('yolov8n-pose.yaml').load('yolov8n-pose.pt') # 从YAML构建并传输权重
# 训练模型
results = model.train(data='coco8-pose.yaml', epochs=100, imgsz=640)
# 从YAML构建一个新模型并从头开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml epochs=100 imgsz=640
# 从一个预训练的*.pt模型开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.pt epochs=100 imgsz=640
# 从YAML构建一个新模型,传输预训练权重并开始训练
yolo pose train data=coco8-pose.yaml model=yolov8n-pose.yaml pretrained=yolov8n-pose.pt epochs=100 imgsz=640
目标检测
from ultralytics import YOLO
# 加载模型
model = YOLO('yolov8n.yaml') # 从YAML构建新模型
model = YOLO('model/yolov8n.pt') # 加载预训练模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt') # 从YAML构建并转移权重
# 训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
# 从YAML构建新模型并从头开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640
# 从预训练的*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640
# 从YAML构建新模型,传递预训练权重并开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
数据集格式
在COCO128数据集上训练YOLOv8n模型100个时期,图像大小为640。可以使用device
参数指定训练设备。如果没有传递参数,并且有可用的GPU,则将使用GPU device=0
,否则将使用device=cpu
。有关完整列表的训练参数,请参见下面的参数部分。
!!! 示例 “单GPU和CPU训练示例”
设备将自动确定。如果有可用的GPU,那么将使用它,否则将在CPU上开始训练。
from ultralytics import YOLO
# 加载一个模型
model = YOLO('yolov8n.yaml') # 从YAML建立一个新模型
model = YOLO('model/yolov8n.pt') # 加载预训练模型(推荐用于训练)
model = YOLO('yolov8n.yaml').load('yolov8n.pt') # 从YAML建立并转移权重
# 训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640)
# 从YAML构建新模型,从头开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml epochs=100 imgsz=640
# 从预训练*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640
# 从YAML构建一个新模型,转移预训练权重,然后开始训练
yolo detect train data=coco128.yaml model=yolov8n.yaml pretrained=yolov8n.pt epochs=100 imgsz=640
多GPU训练
多GPU训练通过在多个GPU上分布训练负载,实现对可用硬件资源的更有效利用。无论是通过Python API还是命令行界面,都可以使用此功能。
若要启用多GPU训练,请指定您希望使用的GPU设备ID。
要使用2个GPU进行训练,请使用CUDA设备0和1,使用以下命令。根据需要扩展到更多GPU。
from ultralytics import YOLO
# 加载模型
model = YOLO('model/yolov8n.pt') # 加载预训练模型(推荐用于训练)
# 使用2个GPU训练模型
results = model.train(data='coco128.yaml', epochs=100, imgsz=640, device=[0, 1])
# 使用GPU 0和1从预训练*.pt模型开始训练
yolo detect train data=coco128.yaml model=yolov8n.pt epochs=100 imgsz=640 device=0,1
恢复中断的训练
在处理深度学习模型时,从之前保存的状态恢复训练是一个关键特性。在各种情况下,这可能很方便,比如当训练过程意外中断,或者当您希望用新数据或更多时期继续训练模型时。
恢复训练时,Ultralytics YOLO将加载最后保存的模型的权重,并恢复优化器状态、学习率调度器和时期编号。这允许您无缝地从离开的地方继续训练过程。
在Ultralytics YOLO中,您可以通过在调用train
方法时将resume
参数设置为True
并指定包含部分训练模型权重的.pt
文件路径来轻松恢复训练。
下面是使用Python和命令行恢复中断训练的示例:
from ultralytics import YOLO
# 加载模型
model = YOLO('path/to/last.pt') # 加载部分训练的模型
# 恢复训练
results = model.train(resume=True)
# 恢复中断的训练
yolo train resume model=path/to/last.pt
通过设置resume=True
,train
函数将从’path/to/last.pt’文件中存储的状态继续训练。如果省略resume
参数或将其设置为False
,train
函数将启动新的训练会话。
请记住,默认情况下,检查点会在每个时期结束时保存,或者使用save_period
参数以固定间隔保存,因此您必须至少完成1个时期才能恢复训练运行。
参数
YOLO模型的训练设置是指用于对数据集进行模型训练的各种超参数和配置。这些设置会影响模型的性能、速度和准确性。一些常见的YOLO训练设置包括批大小、学习率、动量和权重衰减。其他可能影响训练过程的因素包括优化器的选择、损失函数的选择以及训练数据集的大小和组成。仔细调整和实验这些设置以实现给定任务的最佳性能是非常重要的。
键 | 值 | 描述 |
---|---|---|
model |
None |
模型文件路径,例如 yolov8n.pt, yolov8n.yaml |
data |
None |
数据文件路径,例如 coco128.yaml |
epochs |
100 |
训练的轮次数量 |
patience |
50 |
早停训练的等待轮次 |
batch |
16 |
每批图像数量(-1为自动批大小) |
imgsz |
640 |
输入图像的大小,以整数表示 |
save |
True |
保存训练检查点和预测结果 |
save_period |
-1 |
每x轮次保存检查点(如果<1则禁用) |
cache |
False |
True/ram, disk 或 False。使用缓存加载数据 |
device |
None |
运行设备,例如 cuda device=0 或 device=0,1,2,3 或 device=cpu |
workers |
8 |
数据加载的工作线程数(如果DDP则为每个RANK) |
project |
None |
项目名称 |
name |
None |
实验名称 |
exist_ok |
False |
是否覆盖现有实验 |
pretrained |
True |
(bool 或 str) 是否使用预训练模型(bool)或从中加载权重的模型(str) |
optimizer |
'auto' |
使用的优化器,选择范围=[SGD, Adam, Adamax, AdamW, NAdam, RAdam, RMSProp, auto] |
verbose |
False |
是否打印详细输出 |
seed |
0 |
随机种子,用于可重复性 |
deterministic |
True |
是否启用确定性模式 |
single_cls |
False |
将多类数据作为单类训练 |
rect |
False |
矩形训练,每批为最小填充整合 |
cos_lr |
False |
使用余弦学习率调度器 |
close_mosaic |
10 |
(int) 最后轮次禁用马赛克增强(0为禁用) |
resume |
False |
从最后检查点恢复训练 |
amp |
True |
自动混合精度(AMP)训练,选择范围=[True, False] |
fraction |
1.0 |
训练的数据集比例(默认为1.0,即训练集中的所有图像) |
profile |
False |
在训练期间为记录器分析ONNX和TensorRT速度 |
freeze |
None |
(int 或 list, 可选) 在训练期间冻结前n层,或冻结层索引列表 |
lr0 |
0.01 |
初始学习率(例如 SGD=1E-2, Adam=1E-3) |
lrf |
0.01 |
最终学习率 (lr0 * lrf) |
momentum |
0.937 |
SGD动量/Adam beta1 |
weight_decay |
0.0005 |
优化器权重衰减5e-4 |
warmup_epochs |
3.0 |
热身轮次(小数ok) |
warmup_momentum |
0.8 |
热身初始动量 |
warmup_bias_lr |
0.1 |
热身初始偏差lr |
box |
7.5 |
框损失增益 |
cls |
0.5 |
cls损失增益(根据像素缩放) |
dfl |
1.5 |
dfl损失增益 |
pose |
12.0 |
姿态损失增益(仅限姿态) |
kobj |
2.0 |
关键点obj损失增益(仅限姿态) |
label_smoothing |
0.0 |
标签平滑(小数) |
nbs |
64 |
标称批大小 |
overlap_mask |
True |
训练期间掩码应重叠(仅限分割训练) |
mask_ratio |
4 |
掩码降采样比率(仅限分割训练) |
dropout |
0.0 |
使用dropout正则化(仅限分类训练) |
val |
True |
训练期间验证/测试 |
记录
在训练YOLOv8模型时,跟踪模型随时间的性能变化可能非常有价值。这就是记录发挥作用的地方。Ultralytics的YOLO提供对三种类型记录器的支持 -
Comet、ClearML和TensorBoard。
要使用记录器,请在上面的代码片段中的下拉菜单中选择它并运行。所选的记录器将被安装和初始化。
TensorBoard
TensorBoard
是TensorFlow的可视化工具包。它允许您可视化TensorFlow图表,绘制有关图表执行的定量指标,并展示通过它的附加数据,如图像。
在Google Colab
中使用TensorBoard:
load_ext tensorboard
tensorboard --logdir ultralytics/runs # 替换为'runs'目录
在本地使用TensorBoard,运行下面的命令并在 http://localhost:6006/ 查看结果。
tensorboard --logdir ultralytics/runs # 替换为'runs'目录
这将加载TensorBoard并将其定向到保存训练日志的目录。
在设置好日志记录器后,您可以继续进行模型训练。所有训练指标将自动记录在您选择的平台中,您可以访问这些日志以监控模型随时间的表现,比较不同模型,并识别改进的领域。
Ultralytics YOLO 的模型导出
使用示例
将 YOLOv8n 模型导出为 ONNX 或 TensorRT 等不同格式。查看下面的参数部分,了解完整的导出参数列表。
from ultralytics import YOLO
# 加载模型
model = YOLO('model/yolov8n.pt') # 加载官方模型
model = YOLO('path/to/best.pt') # 加载自定义训练的模型
# 导出模型
model.export(format='onnx')
yolo export model=yolov8n.pt format=onnx # 导出官方模型
yolo export model=path/to/best.pt format=onnx # 导出自定义训练的模型
参数
YOLO 模型的导出设置是指用于在其他环境或平台中使用模型时保存或导出模型的各种配置和选项。这些设置会影响模型的性能、大小和与不同系统的兼容性。一些常见的
YOLO 导出设置包括导出的模型文件格式(例如 ONNX、TensorFlow SavedModel)、模型将在哪个设备上运行(例如
CPU、GPU)以及是否包含附加功能,如遮罩或每个框多个标签。其他可能影响导出过程的因素包括模型用途的具体细节以及目标环境或平台的要求或限制。重要的是要仔细考虑和配置这些设置,以确保导出的模型针对预期用例经过优化,并且可以在目标环境中有效使用。
键 | 值 | 描述 |
---|---|---|
format |
'torchscript' |
导出的格式 |
imgsz |
640 |
图像尺寸,可以是标量或 (h, w) 列表,比如 (640, 480) |
keras |
False |
使用 Keras 导出 TF SavedModel |
optimize |
False |
TorchScript:为移动设备优化 |
half |
False |
FP16 量化 |
int8 |
False |
INT8 量化 |
dynamic |
False |
ONNX/TensorRT:动态轴 |
simplify |
False |
ONNX/TensorRT:简化模型 |
opset |
None |
ONNX:opset 版本(可选,默认为最新版本) |
workspace |
4 |
TensorRT:工作区大小(GB) |
nms |
False |
CoreML:添加 NMS |
导出格式
下表中提供了可用的 YOLOv8 导出格式。您可以使用 format
参数导出任何格式的模型,比如 format='onnx'
或 format='engine'
。文章来源:https://www.toymoban.com/news/detail-818274.html
格式 |
format 参数 |
模型 | 元数据 | 参数 |
---|---|---|---|---|
PyTorch | - | yolov8n.pt |
✅ | - |
TorchScript | torchscript |
yolov8n.torchscript |
✅ |
imgsz , optimize
|
ONNX | onnx |
yolov8n.onnx |
✅ |
imgsz , half , dynamic , simplify , opset
|
OpenVINO | openvino |
yolov8n_openvino_model/ |
✅ |
imgsz , half
|
TensorRT | engine |
yolov8n.engine |
✅ |
imgsz , half , dynamic , simplify , workspace
|
CoreML | coreml |
yolov8n.mlpackage |
✅ |
imgsz , half , int8 , nms
|
TF SavedModel | saved_model |
yolov8n_saved_model/ |
✅ |
imgsz , keras
|
TF GraphDef | pb |
yolov8n.pb |
❌ | imgsz |
TF Lite | tflite |
yolov8n.tflite |
✅ |
imgsz , half , int8
|
TF Edge TPU | edgetpu |
yolov8n_edgetpu.tflite |
✅ | imgsz |
TF.js | tfjs |
yolov8n_web_model/ |
✅ | imgsz |
PaddlePaddle | paddle |
yolov8n_paddle_model/ |
✅ | imgsz |
ncnn | ncnn |
yolov8n_ncnn_model/ |
✅ |
imgsz , half
|
Yolov8 训练代码+部署事例+参考手册 1G资料
下载链接:点击下载
文章来源地址https://www.toymoban.com/news/detail-818274.html
到了这里,关于Yolov8不废话!参考手册!的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!