基于Yolov8与LabelImg训练自己数据的完整流程

这篇具有很好参考价值的文章主要介绍了基于Yolov8与LabelImg训练自己数据的完整流程。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. 创建虚拟环境

```python
conda create -n yolos python=3.11
# 激活yolos 环境,后续的安装都在里面进行
conda activate yolos

2. 通过git 安装 ultralytics

# 没有git的话要安装git
conda install git

# D:  进入D盘
D:
mkdir yolos
cd yolos

# Clone the ultralytics repository
git clone https://github.com/ultralytics/ultralytics

# Navigate to the cloned directory
cd ultralytics

# Install the package in editable mode for development
pip install -e .    //最后的“.”不可省略

# 通过该命令安装的torch 是cpu版本,如果需要安装gpu,需要先卸载掉,然后安装
pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu117  //这一步骤比较慢

# torch 安装完成后,可以执行如下命令,进行快速安装
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple -r requirements.txt

# 后面有些代码需要pytest,也要安装一下
pip install -i https://pypi.tuna.tsinghua.edu.cn/simple pytest

# 如果需要安装onnx,也可以安装一下
conda install onnx

3. 安装完成之后,通过以下代码测试下环境配置是否正确

# DemoTest.py
# yolo predict model=yolov8n-seg.pt source='https://youtu.be/Zgi9g1ksQHc' imgsz=320   通过该命令可自动下载不同模型
from multiprocessing import freeze_support
from ultralytics import YOLO

def main():
    # Load a model    
    model = YOLO("yolov8n.yaml")  # build a new model from scratch    
    model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)   
     # Use the model    
     model.train(data="coco128.yaml", epochs=3)  # train the model   
      metrics = model.val()  # evaluate model performance on the validation set    
      results = model("https://ultralytics.com/images/bus.jpg")  # predict on an image    
      # path = model.export(format="onnx")  # export the model to ONNX format
      
if __name__ == '__main__':
    freeze_support()
    main()

运行过程中,会提示下载coco128.zip,和yolov8n.pt,模型与py文件放在同一目录下,如果网速快的话,自己下载就好,下载慢的话,下面是网盘地址:

yolov8 检测预训练模型百度网盘:链接:https://pan.baidu.com/s/1L5q1sdtBmq0FcuX6t1SvIg  提取码:ix9e
coco128.zip  百度网盘: 链接:https://pan.baidu.com/s/1UMdrWcY49jfCVvGvTMm8xg 提取码:rqd0

测试结果路径:ultralytics\runs\detect\val,里面存储了运行的结果,这样环境就算是配置好了。

结果如下:
基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

4. 安装labelImg标注软件

# 下载源代码
git clone https://github.com/HumanSignal/labelImg.git
# 创建labelImg虚拟环境,lebelImg 需要低版本的python,我这里安装3.7
conda create -n labelImg37 python=3.7
# 激活环境
conda activate labelImg37
# 安装依赖库
conda install pyqt=5
conda install -c anaconda lxml
# 将qrc转换成可调用的py
pyrcc5 -o libs/resources.py resources.qrc  
# 直接运行会报错 'pyrcc5' 不是内部或外部命令,也不是可运行的程序;因为从anaconda 中安装的pyqt不包含pyrcc5
# 需要从cmd直接安装
pip install pyqt5_tools -i https://pypi.tuna.tsinghua.edu.cn/simple
# 然后再执行下一句
pyrcc5 -o libs/resources.py resources.qrc  
#然后执行下一句弹出窗口
python labelImg.py
# python labelImg.py [IMAGE_PATH] [PRE-DEFINED CLASS FILE]

# 也可以直接通过pip安装
pip3 install labelImg
# 启动
labelImg

基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

5. 使用labelImg进行标注,图片使用上面的coco128

首先创建一个文件夹:cocoImages, 里面分别创建2个文件夹,images用来放置标注图片, vocLabels 用来放置标注文件

5.1 点击“打开目录”选择存储图像的文件夹进行标注,右下角会出现图像列表

基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

5.2 选择“创建区块”,在图像上对目标进行标注,然后填入类别,每张图片皆可标记多个目标

基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

5.3 每一张图片标注完后,软件会提示进行保存,点击Yes即可;

5.4 标记完后的文件如图所示;

基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

5.5 将xml文件放入vocLabels文件夹中;

6. 将数据转换成yolo需要的格式

首先将11行中的classes改为自己标注的类别,然后执行下代码生成相应的文件夹,接着将图像copy到JPEGImages下,labels copy到Annotations下面,再次执行一次该代码即可。

import xml.etree.ElementTree as ET
import pickle
import os
from os import listdir, getcwd
from os.path import join
import random

# classes=["aeroplane", 'bicycle', 'bird', 'boat', 'bottle', 'bus', 'car', 'cat', 'chair', 'cow', 'diningtable', 'dog',
#            'horse', 'motorbike', 'person', 'pottedplant', 'sheep', 'sofa', 'train', 'tvmonitor']  # class names

classes = ["person", 'cup', 'umbrella']


def clear_hidden_files(path):
    dir_list = os.listdir(path)
    for i in dir_list:
        abspath = os.path.join(os.path.abspath(path), i)
        if os.path.isfile(abspath):
            if i.startswith("._"):
                os.remove(abspath)
        else:
            clear_hidden_files(abspath)


def convert(size, box):
    dw = 1. / size[0]
    dh = 1. / size[1]
    x = (box[0] + box[1]) / 2.0
    y = (box[2] + box[3]) / 2.0
    w = box[1] - box[0]
    h = box[3] - box[2]
    x = x * dw
    w = w * dw
    y = y * dh
    h = h * dh
    return x, y, w, h


def convert_annotation(image_id, voc_labels, yolo_labels):
    in_file = open(os.path.join(voc_labels + '%s.xml') % image_id)
    out_file = open(os.path.join(yolo_labels + '%s.txt') % image_id, 'w')
    tree = ET.parse(in_file)
    root = tree.getroot()
    size = root.find('size')
    w = int(size.find('width').text)
    h = int(size.find('height').text)

    for obj in root.iter('object'):
        difficult = obj.find('difficult').text
        cls = obj.find('name').text
        if cls not in classes or int(difficult) == 1:
            continue
        cls_id = classes.index(cls)
        xml_box = obj.find('bndbox')
        b = (float(xml_box.find('xmin').text), float(xml_box.find('xmax').text), float(xml_box.find('ymin').text),
             float(xml_box.find('ymax').text))
        bb = convert((w, h), b)
        out_file.write(str(cls_id) + " " + " ".join([str(a) for a in bb]) + '\n')
    in_file.close()
    out_file.close()


if __name__ == '__main__':
    # 获取当前路径
    wd = os.getcwd()
    # 创建相应VOC模式文件夹
    voc_path = os.path.join(wd, "voc_dataset")
    if not os.path.isdir(voc_path):
        os.mkdir(voc_path)

    annotation_dir = os.path.join(voc_path, "Annotations/")
    if not os.path.isdir(annotation_dir):
        os.mkdir(annotation_dir)
    clear_hidden_files(annotation_dir)

    image_dir = os.path.join(voc_path, "JPEGImages/")
    if not os.path.isdir(image_dir):
        os.mkdir(image_dir)
    clear_hidden_files(image_dir)

    voc_file_dir = os.path.join(voc_path, "ImageSets/")
    if not os.path.isdir(voc_file_dir):
        os.mkdir(voc_file_dir)

    voc_file_dir = os.path.join(voc_file_dir, "Main/")
    if not os.path.isdir(voc_file_dir):
        os.mkdir(voc_file_dir)

    VOC_train_file = open(os.path.join(voc_path, "ImageSets/Main/train.txt"), 'w')
    VOC_test_file = open(os.path.join(voc_path, "ImageSets/Main/test.txt"), 'w')
    VOC_train_file.close()
    VOC_test_file.close()

    if not os.path.exists(os.path.join(voc_path, 'Labels/')):
        os.makedirs(os.path.join(voc_path, 'Labels'))

    train_file = open(os.path.join(voc_path, "2007_train.txt"), 'a')
    test_file = open(os.path.join(voc_path, "2007_test.txt"), 'a')
    VOC_train_file = open(os.path.join(voc_path, "ImageSets/Main/train.txt"), 'a')
    VOC_test_file = open(os.path.join(voc_path, "ImageSets/Main/test.txt"), 'a')

    image_list = os.listdir(image_dir)  # list image files
    probo = random.randint(1, 100)
    print("Probobility: %d" % probo)
    for i in range(0, len(image_list)):
        path = os.path.join(image_dir, image_list[i])
        if os.path.isfile(path):
            image_path = image_dir + image_list[i]
            image_name = image_list[i]
            (name_without_extent, extent) = os.path.splitext(os.path.basename(image_path))
            voc_name_without_extent, voc_extent = os.path.splitext(os.path.basename(image_name))
            annotation_name = name_without_extent + '.xml'
            annotation_path = os.path.join(annotation_dir, annotation_name)
        probo = random.randint(1, 100)
        print("Probobility: %d" % probo)
        if (probo < 75):
            if os.path.exists(annotation_path):
                train_file.write(image_path + '\n')
                VOC_train_file.write(voc_name_without_extent + '\n')
                yolo_labels_dir = os.path.join(voc_path, 'Labels/')
                convert_annotation(name_without_extent, annotation_dir, yolo_labels_dir)
        else:
            if os.path.exists(annotation_path):
                test_file.write(image_path + '\n')
                VOC_test_file.write(voc_name_without_extent + '\n')
                yolo_labels_dir =os.path.join(voc_path, 'Labels/')
                convert_annotation(name_without_extent, annotation_dir, yolo_labels_dir)

    train_file.close()
    test_file.close()
    VOC_train_file.close()
    VOC_test_file.close()

7. 对数据集进行划分

import os
import shutil
import random
ratio=0.1
img_dir='./voc_dataset/JPEGImages' #图片路径
label_dir='./voc_dataset/Labels'#生成的yolo格式的数据存放路径
train_img_dir='./voc_dataset/images/train2017'#训练集图片的存放路径
val_img_dir='./voc_dataset/images/val2017'
train_label_dir='./voc_dataset/labels/train2017'#训练集yolo格式数据的存放路径
val_label_dir='./voc_dataset/labels/val2017'
if not os.path.exists(train_img_dir):
    os.makedirs(train_img_dir)
if not os.path.exists(val_img_dir):
    os.makedirs(val_img_dir)
if not os.path.exists(train_label_dir):
    os.makedirs(train_label_dir)
if not os.path.exists(val_label_dir):
    os.makedirs(val_label_dir)
names=os.listdir(img_dir)
val_names=random.sample(names,int(len(names)*ratio))

cnt_1=0
cnt_2=0
for name in names:
    if name in val_names:
        #cnt_1+=1
        #if cnt_1>100:
            #break
        shutil.copy(os.path.join(img_dir,name),os.path.join(val_img_dir,name))
        shutil.copy(os.path.join(label_dir, name[:-4]+'.txt'), os.path.join(val_label_dir, name[:-4]+'.txt'))
    else:
        #cnt_2+=1
        #if cnt_2>1000:
            #break
        shutil.copy(os.path.join(img_dir, name), os.path.join(train_img_dir, name))
        shutil.copy(os.path.join(label_dir, name[:-4] + '.txt'), os.path.join(train_label_dir, name[:-4] + '.txt'))

执行完第七个步骤后,数据集的文件分布如下所示,其中,images,Labels中的文件即yolov8训练时所需要的:
基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

8.训练

8.1 如果运行的时候出现如下报错,进入虚拟环境中搜索libiomp5md.dll,删掉一个即可

OMP: Error #15: Initializing libiomp5md.dll, but found libiomp5md.dll already initialized

8.2 训练时需要修改的文件如下,修改文件的路径如下:

D:\yolos\ultralytics\ultralytics\cfg\datasets\myVOC.yaml
# Ultralytics YOLO 🚀, AGPL-3.0 license# PASCAL VOC dataset http://host.robots.ox.ac.uk/pascal/VOC by University of Oxford# Example usage: yolo train data=VOC.yaml# parent# ├── ultralytics# └── datasets#     └── VOC  ← downloads here (2.8 GB)# Train/val/test sets as 1) dir: path/to/imgs, 2) file: path/to/imgs.txt, or 3) list: [path/to/imgs1, path/to/imgs2, ..]path: ../voc_dataset/
train: # train images (relative to 'path')  16551 images  - images/train2017
val: # val images (relative to 'path')  4952 images  - images/train2017
test: # test images (optional)  - images/train2017

# Classesnames:
  0: person
  1: cup
  2: umbrella

网络配置参数:

‪D:\yolos\ultralytics\ultralytics\cfg\models\v8\yolov8.yaml

基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO
下面的文件是网络训练时的参数,可以进行修改,如果训练的次数少,没有结果,可以修改该配置里面的conf

D:\yolos\ultralytics\ultralytics\cfg\default.yaml

8.3 训练

修改完成后,训练完整代码如下:

from multiprocessing import freeze_support

import cv2

from ultralytics import YOLO

def main():
    # Load a model
    model = YOLO("yolov8n.yaml")  # build a new model from scratch
    model = YOLO("yolov8n.pt")  # load a pretrained model (recommended for training)

    # Use the model
    model.train(data="myVOC.yaml", epochs=100)  # train the model
    metrics = model.val()  # evaluate model performance on the validation set

if __name__ == '__main__':
    freeze_support()
    main()

基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO
训练结果,
训练的结果和模型,在文件夹runs中:
基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

9. Predict 预测

预测完整代码如下:
代码如下,运行的时候需要注意修改模型的路径

from multiprocessing import freeze_support

import cv2

from ultralytics import YOLO

def main():
    # Load a model
    model = YOLO("yolov8n.yaml")  # build a new model from scratch
    model = YOLO("runs/detect/train18/weights/best.pt")  # load a pretrained model (recommended for training)
    results = model("000000000036.jpg")  # predict on an image
    path = model.export(format="onnx")  # export the model to ONNX format
    # Process results list

    for res in results:
        boxes = res.boxes  # Boxes object for bbox outputs
        masks = res.masks  # Masks object for segmentation masks outputs
        keypoints = res.keypoints  # Keypoints object for pose outputs
        probs = res.probs  # Probs object for classification outputs
        res_plotted = res.plot()
        cv2.namedWindow("yolov8_result", cv2.WINDOW_NORMAL)
        cv2.imshow("yolov8_result", res_plotted)
        cv2.waitKey(0)

if __name__ == '__main__':
    freeze_support()
    main()

最终输出结果如下:
基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

10. ONNX

path = model.export(format="onnx")  # export the model to ONNX format    

这句代码输出onnx格式的模型,可以通过提示查看网络结果:
运行完成后,terminal中会出现以下提示,可以点击网址,然后从网址中打开路径中的best.onnx,即可查看网络模型。
基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

11. 在此基础上运行yolov5

Yolov5 也可以直接使用,注意ultralytics路径,可以单独拷贝一份出来,放在正确的路径中,下面时我这边的文件分布;
若已经安装过git,仍然报错,那就需要去安装目录中找到git.exe, 然后手动添加到环境变量。‪C:\Users\86942.conda\envs\yolos\Library\mingw64\bin\git.exe
基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO
基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO
基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO

基于Yolov8与LabelImg训练自己数据的完整流程,深度学习与计算机视觉,PyTorch学习,YOLO文章来源地址https://www.toymoban.com/news/detail-646782.html

到了这里,关于基于Yolov8与LabelImg训练自己数据的完整流程的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • YOLOv8训练自己的数据集(超详细)

    本人的笔记本电脑系统是:Windows10 YOLO系列最新版本的YOLOv8已经发布了,详细介绍可以参考我前面写的博客,目前ultralytics已经发布了部分代码以及说明,可以在github上下载YOLOv8代码,代码文件夹中会有requirements.txt文件,里面描述了所需要的安装包。 本文最终安装的pytorch版本

    2024年02月03日
    浏览(44)
  • yolov8代码梳理 训练自己的数据 最终版

    最开始为了检测不规则的麻包袋,所以采用了目标检测。yolov3,fasterrcnn,ssd。这种矩形框还是可以用。后面检测的物体变成了规则的纸箱,我们还用目标检测发现,没有旋转角度,因为箱子的摆放不是正的。只能通过opencv的minarea去找到最小矩形框去寻找角度。但是opencv的方

    2024年02月12日
    浏览(46)
  • 使用YOLOv8训练自己的【目标检测】数据集

    随着深度学习技术在计算机视觉领域的广泛应用,行人检测和车辆检测等任务已成为热门研究领域。然而,实际应用中,可用的预训练模型可能并不适用于所有应用场景。 例如,虽然预先训练的模型可以检测出行人,但它无法区分“好人”和“坏人”,因为它没有接受相关的

    2024年04月10日
    浏览(51)
  • YOLOv8检测、分割和分类训练自己数据集

    本人写了一键制作三种数据集的代码,还带数据增强哦,可联系QQ:1781419402获取,小偿! Yolov8下载地址:GitHub - ultralytics/ultralytics: YOLOv8 🚀 in PyTorch ONNX CoreML TFLitexx 下载完成后 按照YOLOv8教程系列:一、使用自定义数据集训练YOLOv8模型(详细版教程,你只看一篇->调参攻略),

    2023年04月17日
    浏览(45)
  • yolov8训练自己的数据集遇到的问题

    **方法一:**根据本地模型配置文件.yaml可以设置nc 但是,这里无法用到预训练模型.pt模型文件,预训练模型的权重参数是在大数据集上训练得到的,泛化性能可能比较好,所以,下载了官方的分类模型yolov8n-cls.pt(这里实际上经过验证可以通过其它方法利用yaml方法加载预训练

    2023年04月26日
    浏览(52)
  • YOLOv8实例分割训练自己的数据集保姆级教程

    1.1Labelme 安装方法 首先安装 Anaconda,然后运行下列命令: 1.2Labelme 使用教程 使用 labelme 进行场景分割标注的教程详见:labelme     对数据集进行转换和划分。注意:在数据标注的时候将图片和json文件放在不同的文件夹里。如下图所示,另外新建两个文件夹txt 和split。  2.1将

    2024年02月02日
    浏览(45)
  • Yolov8改进模型后使用预训练权重迁移学习训练自己的数据集

    yolov8 github下载 1、此时确保自己的数据集格式是yolo 格式的(不会的去搜教程转下格式)。 你的自制数据集文件夹摆放 主目录文件夹摆放 自制数据集data.yaml文件路径模板 2、把data.yaml放在yolov8–ultralytics-datasets文件夹下面 3、然后模型配置改进yaml文件在主目录新建文件夹v8_

    2024年02月06日
    浏览(49)
  • 手把手教程 | YOLOv8-seg训练自己的分割数据集

    🚀🚀🚀手把手教程:教会你如何使用自己的数据集开展分割任务 🚀🚀🚀YOLOv8-seg创新专栏: 学姐带你学习YOLOv8,从入门到创新,轻轻松松搞定科研; 1)手把手教你如何训练YOLOv8-seg; 2)模型创新,提升分割性能; 3)独家自研模块助力分割; 番薯破损分割任务,自己手

    2024年02月05日
    浏览(48)
  • yolov8训练自己的数据集与转成onnx利用opencv进行调用

    文章目录 系列文章目录 前言 一、利用labeling进行数据的创建? 二、使用步骤 1.引入库 2.读入数据 总结 首先需要创建适合yolov8的数据模式,需要将xml文件转成txt文件。修改yolov8的配置文件实现模型的训练 提示:以下是本篇文章正文内容,下面案例可供参考 代码如下(示例)

    2024年02月06日
    浏览(45)
  • 【3】使用YOLOv8训练自己的目标检测数据集-【收集数据集】-【标注数据集】-【划分数据集】-【配置训练环境】-【训练模型】-【评估模型】-【导出模型】

    云服务器训练YOLOv8-新手教程-哔哩哔哩 🍀2023.11.20 更新了划分数据集的脚本 在自定义数据上训练 YOLOv8 目标检测模型的步骤可以总结如下 6 步: 🌟收集数据集 🌟标注数据集 🌟划分数据集 🌟配置训练环境 🌟训练模型 🌟评估模型 随着深度学习技术在计算机视觉领域的广泛

    2023年04月15日
    浏览(80)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包