PyTorch入门学习(九):神经网络-最大池化使用

这篇具有很好参考价值的文章主要介绍了PyTorch入门学习(九):神经网络-最大池化使用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

一、数据准备

二、创建神经网络模型

三、可视化最大池化效果


一、数据准备

首先,需要准备一个数据集来演示最大池化层的应用。在本例中,使用了CIFAR-10数据集,这是一个包含10个不同类别图像的数据集,用于分类任务。我们使用PyTorch的torchvision库来加载CIFAR-10数据集并进行必要的数据转换。

import torch
import torchvision
from torch.utils.data import DataLoader

# 数据集准备
dataset = torchvision.datasets.CIFAR10("D:\\Python_Project\\pytorch\\dataset2", train=False, transform=torchvision.transforms.ToTensor(), download=True)

# 使用DataLoader加载数据集,每批次包含64张图像
dataLoader = DataLoader(dataset, batch_size=64)

二、创建神经网络模型

接下来,创建一个简单的神经网络模型,其中包含一个卷积层和一个最大池化层。这个模型将帮助演示最大池化层的效果。首先定义一个Tudui类,该类继承了nn.Module,并在初始化方法中创建了一个卷积层和一个最大池化层。

import torch.nn as nn
from torch.nn import Conv2d
from torch.nn.functional import max_pool2d

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui, self).__init()
        # 卷积层
        self.conv1 = Conv2d(in_channels=3, out_channels=6, kernel_size=3, stride=1, padding=0)
        # 最大池化层
        self.pool = nn.MaxPool2d(kernel_size=2, stride=2)

    def forward(self, x):
        x = self.conv1(x)
        x = self.pool(x)
        return x

tudui = Tudui()
print(tudui)

上述代码中,定义了Tudui类,包括了一个卷积层和一个最大池化层。在forward方法中,数据首先经过卷积层,然后通过最大池化层,以减小图像的维度。

三、可视化最大池化效果

最大池化层有助于减小图像的维度,提取图像中的主要特征。接下来将使用TensorBoard来可视化最大池化的效果,以更好地理解它。首先,导入SummaryWriter类并创建一个SummaryWriter对象。

from torch.utils.tensorboard import SummaryWriter

writer = SummaryWriter("logs")

然后,遍历数据集,对每个批次的图像应用卷积和最大池化操作,并将卷积前后的图像写入TensorBoard。

step = 0
for data in dataLoader:
    imgs, targets = data
    
    # 卷积和最大池化操作
    output = tudui(imgs)
    
    # 将输入图像写入TensorBoard
    writer.add_images("input", imgs, step)
    
    # 由于TensorBoard不能直接显示多通道图像,我们需要重定义输出图像的大小
    output = torch.reshape(output, (-1, 6, 15, 15))
    
    # 将卷积和最大池化后的图像写入TensorBoard
    writer.add_images("output", output, step)
    
    step += 1

writer.close()

在上述代码中,使用writer.add_images将输入和输出的图像写入TensorBoard,并使用torch.reshape来重定义输出图像的大小,以适应TensorBoard的显示要求。

运行上述代码后,将在TensorBoard中看到卷积和最大池化的效果。最大池化层有助于提取图像中的关键信息,减小图像维度,并提高模型的计算效率。

完整代码如下:

import torch
import torchvision
from torch import nn
from torch.nn import Conv2d
from torch.utils.data import DataLoader
from torch.utils.tensorboard import SummaryWriter
#数据集准备
dataset = torchvision.datasets.CIFAR10("D:\\Python_Project\\pytorch\\dataset2",train=False,transform=torchvision.transforms.ToTensor(),download=True)
#使用dataloader加载数据集,批次数为64
dataLoader = DataLoader(dataset,batch_size=64)

class Tudui(nn.Module):
    def __init__(self):
        super(Tudui,self).__init__()
        # 该神经网络调用conv2d进行一层卷积,输入通道为3层(彩色图像为3通道),卷积核大小为3*3,输出通道为6,设置步长为1,padding为0,不进行填充。
        self.conv1 = Conv2d(in_channels=3,out_channels=6,kernel_size=3,stride=1,padding=0)

    def forward(self,x):
        x = self.conv1(x)
        return x

tudui = Tudui()
print(tudui)

# 生成日志
writer = SummaryWriter("logs")

step = 0
# 输出卷积前的图片大小和卷积后的图片大小
for data in dataLoader:
    imgs,targets = data
    # 卷积操作
    output = tudui(imgs)
    print(imgs.shape)
    print(output.shape)
    writer.add_images("input",imgs,step)
    """
     注意:使用tensorboard输出时需要重新定义图片大小
     对于输入的图片集imgs来说,tensor.size([64,3,32,32]),即一批次为64张,一张图片为三个通道,大小为32*32
     对于经过卷积后输出的图片集output来说,tensor.size([64,6,30,30]),通道数变成了6,tensorboard不知道怎么显示通道数为6的图片,所以如果直接输出会报错
     解决方案:
     使用reshape方法对outputs进行重定义,把通道数改成3,如果不知道批次数大小,可以使用-1代替,程序会自动匹配批次大小。
    """
    #重定义输出图片的大小
    output = torch.reshape(output,(-1,3,30,30))
    # 显示输出的图片
    writer.add_images("output",output,step)
    step = step + 1
writer.close()

参考资料:

视频教程:PyTorch深度学习快速入门教程(绝对通俗易懂!)【小土堆】文章来源地址https://www.toymoban.com/news/detail-732861.html

到了这里,关于PyTorch入门学习(九):神经网络-最大池化使用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Pytorch入门学习——快速搭建神经网络、优化器、梯度计算

    我的代码可以在我的Github找到 GIthub地址 https://github.com/QinghongShao-sqh/Pytorch_Study 因为最近有同学问我如何Nerf入门,这里就简单给出一些我的建议: (1)基本的pytorch,机器学习,深度学习知识,本文介绍的pytorch知识掌握也差不多. 机器学习、深度学习零基础的话B站​吴恩达、

    2024年02月14日
    浏览(31)
  • PyTorch入门学习(十一):神经网络-线性层及其他层介绍

    目录 一、简介 二、PyTorch 中的线性层 三、示例:使用线性层构建神经网络 四、常见的其他层 一、简介 神经网络是由多个层组成的,每一层都包含了一组权重和一个激活函数。每层的作用是将输入数据进行变换,从而最终生成输出。线性层是神经网络中的基本层之一,它执

    2024年02月05日
    浏览(32)
  • 【深度学习】神经网络和深度学习--卷积和池化的作用

    深度学习通常指训练大型深度的神经网络的过程。 与传统的神经网络模型相比,深度学习模型在结构上与之非常相似; 不同的是,深度学习模型的“深度”更大,“深度”的体现就是神经网络层数多,神经网络每一层的结点数多。 本章介绍两种深度神经网络——卷积神经网

    2024年02月16日
    浏览(38)
  • PyTorch入门学习(十二):神经网络-搭建小实战和Sequential的使用

    目录 一、介绍 二、先决条件 三、代码解释 一、介绍 在深度学习领域,构建复杂的神经网络模型可能是一项艰巨的任务,尤其是当您有许多层和操作需要组织时。幸运的是,PyTorch提供了一个方便的工具,称为Sequential API,它简化了神经网络架构的构建过程。在本文中,将探

    2024年02月05日
    浏览(32)
  • 【AI】《动手学-深度学习-PyTorch版》笔记(十七):卷积神经网络入门

    我们在前面学习的多层感知机中,已经认识了全链接层,缺点很明显,在稍微大点的网络模型中,参数成指数级别增长。参数量很快就达到数十亿,这样的量级几乎无法计算。为此科学家们想出一个减少参数的方法:卷积。 从全链接层到卷积的推论,使用如下两个原则: 平

    2024年02月13日
    浏览(48)
  • 【Python机器学习】卷积神经网络卷积层、池化层、Flatten层、批标准化层的讲解(图文解释)

    卷积神经网络(convolutional neural network, CNN)在提出之初被成功应用于手写字符图像识别,2012年的AlexNet网络在图像分类任务中取得成功,此后,卷积神经网络发展迅速,现在已经被广泛应用于图形、图像、语音识别等领域。 图片的像素数往往非常大,如果用多层全连接网络来

    2024年02月08日
    浏览(34)
  • pytorch神经网络入门代码

    以下代码测试正确率为:99.37%

    2024年02月20日
    浏览(30)
  • [pytorch入门] 6. 神经网络

    torch.nn: Containers:基本骨架 Convolution Layers: 卷积层 Pooling layers:池化层 Non-linear Activations (weighted sum, nonlinearity):非线性激活 Normalization Layers:正则化层 containers相对重要的一个类,主要给神经网络定义了一些骨架、一些结构,后面那些类都是要向骨架中填充的东西 里面有

    2024年01月25日
    浏览(33)
  • 神经网络基础-神经网络补充概念-62-池化层

    池化层(Pooling Layer)是深度学习神经网络中常用的一种层级结构,用于减小输入数据的空间尺寸,从而降低模型的计算复杂度,减少过拟合,并且在一定程度上提取输入数据的重要特征。池化层通常紧跟在卷积层之后,用于缩小卷积层输出的尺寸。 常见的池化操作包括最大

    2024年02月12日
    浏览(35)
  • 神经网络:池化操作

    在计算机视觉中,池化操作是一种常用的特征降维技术,它在卷积神经网络(CNN)中起着重要的作用。池化操作主要有以下作用和意义: 1. 特征降维: 池化操作可以减小特征图的尺寸,从而降低了模型的计算复杂度和内存消耗。 通过将特征图的空间维度缩小,可以保留重要

    2024年02月10日
    浏览(24)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包