Python语义分割与街景识别(3):数据集准备

这篇具有很好参考价值的文章主要介绍了Python语义分割与街景识别(3):数据集准备。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言

本文主要用于记录我在使用python做图像识别语义分割训练集的过程,由于在这一过程中踩坑排除BUG过多,因此也希望想做这部分内容的同学们可以少走些弯路。

本文是python语义分割与街景识别第三篇,关于数据集准备的内容。

一、自己制作数据集

自己做数据集的方法其实非常简单,可以使用labelme软件,将每张图片手动框选并填色标记,这里不使用这种方法,因为在建筑或城市尺度下的训练集数量需要很大才可以达到不错的精度,一般不会自行准备数据集,故省略,可以自行寻找labelme教程

二、使用现有数据集训练

2.1 数据集选择

这里使用的是cityscapes已经标注好的训练集,训练集就是一堆精确到像素按分类人工填色标记的图片集

Cityscapes Dataset – Semantic Understanding of Urban Street Scenes

选择“download”注册账号(最好使用学校教务邮箱)并下载相应数据集,笔者下载了前三个数据集

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

2.2 下载官方处理脚本

地址:https://github.com/mcordts/cityscapesScripts

将2.1中的图片集放在cityscapesScripts文件夹下待后续操作

这里对下载下来的数据集做简单说明:以gtCourse为例,里面有这三个文件夹(不同数据集有可能不太一样)

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

第一个文件夹中的图片用于训练,第二个文件夹用于额外训练(有些数据集这个文件夹是test),第三个文件夹中图片用于验证(validation)

打开第一个train文件夹,里面都是不同城市的名字文件夹,比如第一个是亚琛

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

里面是一堆这样的文件

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

填过色的图片和一个对应的json文件。json文件中有标记和像素信息,要训练的本质是这堆信息,填色图片只是最后呈现给人看的结果

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

2.3 准备数据集

新建一个文件夹名为dataset,将其准备为下面的样子

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

Python语义分割与街景识别(3):数据集准备,Python项目,深度学习,python,深度学习

annotations中放入填好色的图片,images中放入对应的原图,perdict中放入需要测试的其他街道图片

说明:其实不论是cityscapes下载的包里还是paddleseg中都有自动生成以上文件的自动化脚本,但是由于版本和包的问题,生成结果会有不同,因此这里照顾不会代码的同学,说明一下每个文件都是什么,方便手动做这些文件。

labels.txt内容如下,包括所有需要识别的类别标签和“背景”,这部分内容可由训练框架自带代码生成,有配置文件可以修改

_background_
road
sidewalk
car
sky
terrain
building
vegetation
pole
traffic sign
static
bicycle
person
license plate
rider
ego vehicle
out of roi
ground
traffic light
dynamic
wall
cargroup
fence
bicyclegroup
motorcycle
parking
bus
persongroup
bridge
trailer

train(训练集)、validation(验证集)、test(测试集)三者数量占比一般为6:2:2

train.txt内容如下

images\\12.png annotations\\12.png
images\\10.png annotations\\10.png
images\\6.png annotations\\6.png
images\\13.png annotations\\13.png
images\\14.png annotations\\14.png
images\\8.png annotations\\8.png
images\\1.png annotations\\1.png
images\\4.png annotations\\4.png
images\\0.png annotations\\0.png
images\\9.png annotations\\9.png 

validation.txt内容如下

images\\7.png annotations\\7.png
images\\3.png annotations\\3.png
images\\5.png annotations\\5.png 

test.txt内容如下

images\\15.png annotations\\15.png
images\\11.png annotations\\11.png
images\\2.png annotations\\2.png 

这部分文件可由框架自带代码生成,也可手动填写。

到此数据集准备工作完成,下一步就是代码运行。 文章来源地址https://www.toymoban.com/news/detail-707417.html

到了这里,关于Python语义分割与街景识别(3):数据集准备的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习:使用UNet做图像语义分割,训练自己制作的数据集并推理测试(详细图文教程)

    语义分割(Semantic Segmentation)是图像处理和机器视觉一个重要分支。与分类任务不同,语义分割需要判断图像每个像素点的类别,进行精确分割。语义分割目前在自动驾驶、自动抠图、医疗影像等领域有着比较广泛的应用。我总结了使用UNet网络做图像语义分割的方法,教程很详

    2024年01月18日
    浏览(47)
  • 图像语义分割——python滑窗法裁剪数据

    B站:xxx CSDN:python图像分割——滑窗法裁剪数据_百年后封笔-CSDN博客 Github:封笔 公众号:百年后封笔 对图像分割而言,往往给的原图是非常大的,无法直接用于网络训练,因此有必要使用滑窗法进行图像的裁剪,把大图裁剪成一个个小的patch图,如下所示,当然如果有分类

    2024年02月17日
    浏览(67)
  • 深度学习中语义分割、实例分割、目标检测和图像分类区别

    语义分割 实例分割 目标检测 语义分割:需要判断每个像素属于哪一个类别,属于像素级别分类标注 实例分割:相较于语义分割 会将同一类别的不同物体进行分离标注   目标检测:输入图像通常包含多个物体,对物体的位置与类别进行标注  图像分类:输入图像通常包含一

    2024年02月08日
    浏览(54)
  • 深度学习语义分割篇——FCN源码解析篇

    🍊作者简介:秃头小苏,致力于用最通俗的语言描述问题 🍊往期回顾:深度学习语义分割篇——FCN原理详解篇 🍊近期目标:写好专栏的每一篇文章 🍊支持小苏:点赞👍🏼、收藏⭐、留言📩   ​  本篇文章参考霹雳吧啦Wz在B站上的视频进行讲解,点击☞☞☞下载FCN源

    2024年02月07日
    浏览(46)
  • 【深度学习实战(6)】搭建通用的语义分割推理流程

    无论输入的图片尺寸多大,都会经过letter_box后,变为512x512尺寸 21个channel代表(20+1)个类别,512x512为模型输入及输入尺寸 经过softmax后,512x512的mask图中,每个位置(x,y)对应的21个channel的值和为1。 pr类型是np,array,所以可以通过这种方式进行逆letter_box操作,将mask的宽高,还原

    2024年04月16日
    浏览(39)
  • 深度学习在语义分割中的进展与应用

    埃弗顿·戈梅德(Everton Gomede) 

    2024年02月03日
    浏览(39)
  • 深度学习应用篇-计算机视觉-语义分割综述[5]:FCN、SegNet、Deeplab等分割算法、常用二维三维半立体数据集汇总、前景展望等

    【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、序列模型、预训练模型、对抗神经网络等 专栏详细介绍:【深度学习入门到进阶】必看系列,含激活函数、优化策略、损失函数、模型调优、归一化算法、卷积模型、

    2024年02月16日
    浏览(53)
  • Halcon 深度学习之语义分割 预处理 案例解析

    声明:本篇是个人针对于语义分割预处理案例的理解,有理解不到位或者错误的地方,还望各位能够给予指正,在此表示感谢! 例子名称: segment_pill_defects_deep_learning_1_preprocess ①:导入原图文件夹,标注文件夹,类别信息等 ②:通过Deep Learning Tool 工具创建的语义分割文件【

    2024年02月09日
    浏览(39)
  • 基于深度学习的自动驾驶汽车语义分割与场景标注算法研究。

    自动驾驶汽车是当前研究的热点领域之一,其中基于深度学习的语义分割与场景标注算法在自动驾驶汽车的视觉感知中具有重要作用。本文将围绕自动驾驶汽车的语义分割与场景标注算法展开研究。 一、研究背景 随着人工智能技术的不断发展,自动驾驶汽车逐渐成为汽车产

    2024年02月07日
    浏览(43)
  • 基于Python+百度语音的智能语音ChatGPT聊天机器人(机器学习+深度学习+语义识别)含全部工程源码 适合个人二次开发

    本项目基于机器学习和语义识别技术,让机器人理解文本并进行合适的答复。伙伴们可以通过该工程源码,进行个人二次开发,比如使用语音与机器人交流,实现智能问答、智能音箱及智能机器宠物等等。 当然针对现在最火爆的 ChatGPT等通用大语言模型 ,伙伴们可以直接将其

    2024年02月07日
    浏览(55)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包