yolov5小目标检测(图像切割法附源码)
6.30 更新切割后的小图片的label数据处理
前言
yolov5大家都熟悉,通用性很强,但针对一些小目标检测的效果很差。
YOLOv5算法在训练模型的过程中,默认设置的图片大小为640x640像素(img-size),为了检测小目标时,如果只是简单地将img-size改为4000*4000大小,那么所需要的内存会变得非常之大,几乎没有可行性。
以下是对6k * 4k的图片,进行小目标检测训练结果,八张图一个字:烂
数据集(路面标志):
图像切割
最简单的方法就是把这个大图片切割成小图片,参考开源框架SAHI[1]
几个问题:
1、简单切割,要保证切割后每张图片大小一致;
2、切割过程难免会切掉目标,需要设置“融合”区域;
3、切割后的数据集是小图片的数据集,那么同样,目标检测的时候也只能检测小图片。那就要对检测之后的小图片做合并处理。(麻烦)
1、图像切割
大体结构图:
其中蓝绿色是切割后的4*4=16张子图,红蓝框的部分是融合图,混合比例0.2
这个简单,参考博客python切割图片,用opencv切割就行,注意同时要切割好融合部分的图片。
# 融合部分图片
def img_mix(img, row_height, col_width, save_path, file):
mix_num = 3
# 每行的高度和每列的宽度
# 分割成4*4就是有
# 4*3个行融合区域
# 3*4个列融合区域
# 一行的融合
row = 0
for i in range(mix_num + 1):
mix_height_start = i * row_height
mix_height_end = (i + 1) * row_height
for j in range(mix_num):
mix_row_path = save_path + '/' + file + '_mix_row_' + str(row) + '.jpg'
mix_row_start = int(j * col_width + col_width * (1 - mix_percent))
mix_row_end = int(mix_row_start + col_width * mix_percent * 2)
# print(mix_height_start, mix_height_end, mix_row_start, mix_row_end)
mix_row_img = img[mix_height_start:mix_height_end, mix_row_start:mix_row_end]
cv2.imwrite(mix_row_path, mix_row_img)
row += 1
col = 0
# 一列的融合
for i in range(mix_num):
mix_col_start = int(i * row_height + row_height * (1 - mix_percent))
mix_col_end = int(mix_col_start + row_height * mix_percent * 2)
for j in range(mix_num + 1):
mix_col_path = save_path + '/' + file + '_mix_col_' + str(col) + '.jpg'
mix_width_start = j * col_width
mix_width_end = (j + 1) * col_width
# print(mix_col_start, mix_col_end, mix_width_start, mix_width_end)
mix_col_img = img[mix_col_start:mix_col_end, mix_width_start:mix_width_end]
cv2.imwrite(mix_col_path, mix_col_img)
col += 1
切割成小图片后,label处理部分
本人是从xml文件中直接读取目标数据,代码:get_xml_data.py
在读取成功之后先保存成一个txt文件格式,所存储的数据为
图片类型(0:子图,1:行融合图,2:列融合图)
小图所处位置(0~15)
小图文件名
大图宽度
大图高度
目标类型
x最小值
x最大值
y最小值
y最大值
读取后得到的结果如下
接下来还要进一步解析这些数据,代码:txt_to_yolo.py
现在已知:小图位置、每种小图宽高、大图宽高,那么就可以定位目标在小图片上的位置
例如:
假设下图宽高为100,右上小框在右上部分的中心,的宽高为10,此时小框的位置信息是
xmin=70, xmax=80
ymin=20, ymax=30
位于第1号子图上(编号0~3)
那么就右上角的一小部分而言,小款的位置信息是
xmin=20, xmax=30
ymin=20, ymax=30
根据这个思路,就可以很好地处理其他数据。
2、目标检测
没啥好说的这个,图片切割后把yolov5的图片训练路径、检测路径改成切割后的图片就好。
注意一点
训练的时候有 融合图 , 检测的时候没有(因为我没做融合图的检测,容易和子图之间产生重复,比较是机器检测的结果)
更改路径:直接在 def run()
下面更改路径,如detect.py:
检测结果:
3、融合
这个说难不难,说简单也不简单
主要是要思路清晰
1、需要定位每一张图片所在的位置(比如切割成4*4,总共有16个位置)
2、根据每一个位置,对每一张图片的检测结果(txt文件)内容进行相应处理,处理成在大图中对应的位置,比如位置是 右上角(0, 3), 那么该图片中检测到的结果的x值都应该加上 (3 * 大图宽度/4),再重新转换成yolov5的标注格式
差不多就这样子?
融合结果
4、结果观察
前面说到,这里的训练和检测都是基于小图片进行,那么就不好直接观察结果如何(检测图片上的框)
那么可以针对融合的txt文件结果,在原图上直接用 ImageDraw 画一个框
结果还不错
训练结果
看看训练结果
其他
也可以参考一些类似的项目
yolov5-tph: https://github.com/Gumpest/YOLOv5-Multibackbone-Compression
yolov-z
还有什么增加小目标检测层(感觉不通用,试了下除了增加训练时间之外,效果也一般般)文章来源:https://www.toymoban.com/news/detail-779752.html
相关文件:
配置文件: config.py
裁剪图片: cut_image.py
读取xml数据: get_xml_data.py
裁剪label数据: txt_to_yolo.py
融合图片: joint_image.py
原图画框: draw_box.py
主函数: main.py
下载地址①
文件下载地址②文章来源地址https://www.toymoban.com/news/detail-779752.html
到了这里,关于yolov5检测小目标(附源码)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!