图像分割算法U-net

这篇具有很好参考价值的文章主要介绍了图像分割算法U-net。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

@[TOC]


概述

UNet是一种用于图像分割任务的深度学习模型,最初由Olaf Ronneberger等人在2015年提出。它的名字来源于其U形状的网络结构。

UNet的主要特点是它使用了编码器和解码器结构,其中编码器部分由一系列卷积层和池化层组成,可以对输入图像进行特征提取和压缩。解码器部分则通过上采样和反卷积层将编码器输出的低分辨率特征映射扩展回原始分辨率,从而获得分割结果。

UNet的另一个重要特点是它采用了跳跃连接(skip connections),这些连接将编码器中的某些层与解码器中相应的层连接起来,从而使解码器可以利用更多的低级别特征来进行分割。这种跳跃连接结构可以有效地解决分割过程中信息丢失和分割不准确的问题。

UNet已被广泛应用于医学图像分割、自然图像分割等任务中,并取得了很好的效果。

网络结构

。UNet架构由对称的编码器和解码器组成

  1. 输入层:接受输入图像。

  1. 编码器:由卷积层和池化层组成,用于逐步缩小图像的尺寸并提取特征。

  1. 解码器:由卷积层和上采样层组成,用于逐步恢复图像的尺寸并将编码器中提取的特征与解码器的对应层相结合。

  1. 跳跃连接:将编码器中的特征与解码器的对应层相结合,以便恢复图像的分辨率。

  1. 输出层:输出与输入图像具有相同尺寸的分割图像,其中每个像素被标记为分割类别之一。

unet算法,深度学习,深度学习,机器学习,Powered by 金山文档

__________________________________________________________________________________________________

  • 深蓝色箭头:利用3×3的卷积核对图片进行卷积后,通过ReLU激活函数输出特征通道;

  • 灰色箭头:对左边下采样过程中的图片进行裁剪复制;

  • 红色箭头:通过最大池化对图片进行下采样,池化核大小为2×2;

  • 绿色箭头:反卷积,对图像进行上采样,卷积核大小为2×2;

  • 青色箭头:使用1×1的卷积核对图片进行卷积。

具体流程如下:

  1. 第一层处理

  • 输入一张 572×572×1 的图片

  • 使用 64 个 3×3 的卷积核进行卷积,并通过 ReLU 函数得到 64 个 570×570×1 的特征通道

  • 再使用 64 个 3×3 的卷积核进行卷积,并通过 ReLU 函数得到 64 个 568×568×1 的特征通道,即第一层的处理结果

  1. 下采样过程

  • 对第一层的处理结果进行 2×2 的池化核操作,将图片下采样为原来大小的一半:284×284×64

  • 使用 128 个卷积核进一步提取特征,得到一个新的特征图片

  • 重复以上步骤,对新的特征图片进行下采样,每一层都会经过两次卷积来提取图像特征

  • 每下采样一层,都会把图片减小一半,卷积核数目增加一倍

  • 最终下采样部分的结果是 28×28×1024,即一共有 1024 个特征层,每一层的特征大小为 28×28

  1. 上采样过程

  • 从最右下角开始,把28×28×1024的特征矩阵经过512个2×2的卷积核进行反卷积,把矩阵扩大为56×56×512。

  • 为了减少数据丢失,采用把左边降采样时的图片裁剪成相同大小后直接拼接的方法增加特征层(这里是左半边白色部分的512个特征通道),再进行卷积来提取特征。

  • 每一层都会进行两次卷积来提取特征,每上采样一层,都会把图片扩大一倍,卷积核数目减少一半。

  • 右边部分从下往上则是4次上采样过程。

  • 在最后一步中,选择了2个1×1的卷积核把64个特征通道变成2个,也就是最后的388×388×2,这里是一个二分类的操作,把图片分成背景和目标两个类别。

__________________________________________________________________________________________________
Layer (type)                    Output Shape         Param #     Connected to                     
==================================================================================================
input_1 (InputLayer)            [(None, 572, 572, 1) 0                                            
__________________________________________________________________________________________________
conv2d (Conv2D)                 (None, 570, 570, 64) 640         input_1[0][0]                    
__________________________________________________________________________________________________
batch_normalization (BatchNorma (None, 570, 570, 64) 256         conv2d[0][0]                     
__________________________________________________________________________________________________
activation (Activation)         (None, 570, 570, 64) 0           batch_normalization[0][0]        
__________________________________________________________________________________________________
conv2d_1 (Conv2D)               (None, 568, 568, 64) 36928       activation[0][0]                 
__________________________________________________________________________________________________
batch_normalization_1 (BatchNor (None, 568, 568, 64) 256         conv2d_1[0][0]                   
__________________________________________________________________________________________________
activation_1 (Activation)       (None, 568, 568, 64) 0           batch_normalization_1[0][0]      
__________________________________________________________________________________________________
max_pooling2d (MaxPooling2D)    (None, 284, 284, 64) 0           activation_1[0][0]               
__________________________________________________________________________________________________
conv2d_2 (Conv2D)               (None, 282, 282, 128 73856       max_pooling2d[0][0]              
__________________________________________________________________________________________________
batch_normalization_2 (BatchNor (None, 282, 282, 128 512         conv2d_2[0][0]                   
__________________________________________________________________________________________________
activation_2 (Activation)       (None, 282, 282

卷积核大小、卷积核数量、数值确定和训练深度确定

  1. U-net卷积核大小的选择原则为越小越好,且一般为奇数×奇数的正方形。因此通常选用3×3的卷积核。但1×1的卷积核不具有提升感受野的作用,而卷积核为偶数×偶数时不能保证图片在进行same卷积操作后,还能够还原到原本的大小。

  1. 每一层的卷积核数量在U-net中是根据随着深度增加需要提取的更多、更抽象的特征而增加的。在U-net浅层中,提取的是颜色、轮廓等比较浅显的图像特征,因此卷积核数量不需要特别多。而随着U-net训练层数越深,需要更多的卷积核才能够把抽象特征提取出来。而U-net每一层都会把卷积核数量翻一倍,是因为经过下采样后图片大小会变成原来的一半,认为卷积核应该增多一倍才能够更全面地提取图片特征。

  1. 卷积核中的数值实际上就相当于是一般全连接神经网络中的权值。在U-net中,卷积核数值的确定是类似全连接神经网络中权值的确定过程,一开始用随机数进行初始化,后面根据损失函数逐步对数值进行调整。当训练精度符合要求后停止,即能确定每个卷积核中的数值。而调整卷积核数值的过程,实际上就是U-net的训练过程。

  1. U-net训练深度的选择目前没有一个专门的标准,一般根据经验选取,或设置多种不同的深度,通过训练效果来选择最优的层数。在U-net原文中也没有明确解释为什么选择4层,可能是在该训练项目中,4层的分割效果最好。

升级版本

U-Net++是一种基于U-Net的改进型神经网络结构,通过增加连接方式和多尺度特征融合来提高图像分割精度。与传统的U-Net相比,U-Net++在保持U-Net结构简洁的同时,能够更好地捕捉图像的细节信息,提高分割精度。

unet算法,深度学习,深度学习,机器学习,Powered by 金山文档
  • 基于深度为4层的U-net

  • 将1~3层的U-net全部组合到一起

  • 每个深度的训练效果相互融合相互补充

  • 对图像进行更为精确的分割文章来源地址https://www.toymoban.com/news/detail-819105.html

到了这里,关于图像分割算法U-net的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【深度学习】图像分割概述

    与目标检测不同,语义分割可以识别并理解图像中每一个像素的内容:其语义区域的标注和预测是像素级的。与目标检测相比,语义分割中图像有关狗、猫和背景的标签,语义分割标注的像素级的边框显然更加精细。 本文主要梳理基于深度学习的图像分割方法。按照任务不同

    2024年02月04日
    浏览(34)
  • 深度学习实验-3d医学图像分割

    实验四 基于nnU-Net模型的3D医学图像分割实验 腹部多器官分割一直是医学图像分析领域最活跃的研究领域之一,其作为一项基础技术,在支持疾病诊断,治疗规划等计算机辅助技术发挥着重要作用。近年来,基于深度学习的方法在该领域中获得了巨大成功。本实验数据集为多

    2024年02月07日
    浏览(56)
  • 深度学习图像分类、目标检测、图像分割源码小项目

    ​demo仓库和视频演示: 到此一游7758258的个人空间_哔哩哔哩_bilibili 卷积网路CNN分类的模型一般使用包括alexnet、DenseNet、DLA、GoogleNet、Mobilenet、ResNet、ResNeXt、ShuffleNet、VGG、EfficientNet和Swin transformer等10多种模型 目标检测包括yolov3、yolov4、yolov5、yolox、faster rcnn、SDD等 图像分割包

    2024年02月09日
    浏览(49)
  • 【深度学习:图像分割指南】计算机视觉中的图像分割指南:最佳实践

    图像分割是计算机视觉中的一项关键任务,其目标是将图像划分为不同的有意义且可区分的区域或对象。这是物体识别、跟踪和检测、医学成像和机器人等各种应用中的一项基本任务。 许多技术可用于图像分割,从传统方法到基于深度学习的方法。随着深度学习的出现,图像

    2024年01月23日
    浏览(85)
  • 基于深度学习的图像分割技术探究

    导言: 图像分割是计算机视觉领域的重要任务,旨在将图像划分为不同的语义区域,实现对图像中感兴趣物体的定位和提取。深度学习作为图像分割的新兴技术,通过卷积神经网络(CNN)等模型,取得了显著的分割效果。本文将探究基于深度学习的图像分割技术的原理、应用

    2024年02月15日
    浏览(34)
  • 深度学习中语义分割、实例分割、目标检测和图像分类区别

    语义分割 实例分割 目标检测 语义分割:需要判断每个像素属于哪一个类别,属于像素级别分类标注 实例分割:相较于语义分割 会将同一类别的不同物体进行分离标注   目标检测:输入图像通常包含多个物体,对物体的位置与类别进行标注  图像分类:输入图像通常包含一

    2024年02月08日
    浏览(54)
  • 深度学习——制作自己的VOC图像分割数据集

    1、数据集介绍 COCO数据集有80个类别,VOC数据集有20个类别。当这些数据集类别中没有自己需要的时候,就需要自己动手做自己的数据集了。 我自己在做数据集的时候主要使用到了labelme和labelImg两个工具。labelme主要是制作语义分割数据集(ImageSets,JPEGImages,SegmentationClass,Segmenta

    2024年02月04日
    浏览(46)
  • 计算机视觉与深度学习-图像分割-视觉识别任务03-实例分割-【北邮鲁鹏】

    论文题目:Mask R-CNN 论文链接:论文下载 论文代码:Facebook代码链接;Tensorflow版本代码链接; Keras and TensorFlow版本代码链接;MxNet版本代码链接 参考:Mask R-CNN详解 将图像中的每个像素与其所属的目标实例进行关联,并为每个像素分配一个特定的标签,以实现像素级别的目标

    2024年02月07日
    浏览(58)
  • 计算机视觉与深度学习-图像分割-视觉识别任务01-语义分割-【北邮鲁鹏】

    给每个像素分配类别标签。 不区分实例,只考虑像素类别。 滑动窗口缺点 重叠区域的特征反复被计算,效率很低。 所以针对该问题提出了新的解决方案–全卷积。 让整个网络只包含卷积层,一次性输出所有像素的类别预测。 全卷积优点 不用将图片分为一个个小区域然后再

    2024年02月07日
    浏览(74)
  • 可解释深度学习:从感受野到深度学习的三大基本任务:图像分类,语义分割,目标检测,让你真正理解深度学习

    目录   前言 一、初识感受野 1.1猜一猜他是什么? 1.2人眼视觉系统下的感受野 1.3深度神经网络中的感受野 1.3.1感受野的性质 1.3.2感受野的定义 1.3.3举一个例子 1.3.4以VGG网络为例 二、感受野的计算 2.1 哪些操作能够改变感受野? 2.2 感受野的计算公式 2.3 感受野的中心位置计算

    2024年02月02日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包