PyTorch 神经网络搭建模板

这篇具有很好参考价值的文章主要介绍了PyTorch 神经网络搭建模板。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1. Dataset & DataLoader🍁

PyTorch 中,DatasetDataLoader 是用来处理数据的重要工具。它们的作用分别如下:

Dataset: Dataset 用于存储数据样本及其对应的标签。在使用神经网络训练时,通常需要将原始数据集转换为 Dataset 对象,以便能够通过 DataLoader 进行批量读取数据,同时也可以方便地进行数据增强、数据预处理等操作。

DataLoader: DataLoader 用于将 Dataset 封装成一个可迭代对象,以便轻松地访问数据集中的样本。通过设置 batch_size 参数,DataLoader 可以将数据集分成若干个批次,每个批次包含指定数量的样本。此外,DataLoader 还支持对数据进行 shuffle、多线程读取等操作,使得训练过程更加高效。

使用 Dataset 和 DataLoader 可以使得数据处理过程更加模块化和可维护,同时也可以提高训练效率。分别封装在 torch.utils.data.Datasettorch.utils.data.DataLoader

class MyDataset(Dataset):
    def __init__(self):
  
    def __len__(self):  
        
    def __getitem__(self):
        

这是一个定义了自定义数据集类 MyDataset 的模板代码,它继承了 PyTorch 中的 Dataset 类,其中包含了三个必要的函数:

__init__:用于初始化数据集,可以在这个函数中读取数据、进行预处理等操作。

__len__:用于返回数据集中样本的数量。

__getitem__:用于根据给定的索引 index 返回对应的样本及其标签。在这个函数中,需要根据索引从数据集中读取相应的样本和标签,并进行相应的预处理和转换。

需要在这个模板代码中添加具体的代码实现,以实现自定义数据集的功能。

from torch.utils.data import DataLoader

train_dataloader = DataLoader(training_data, batch_size=64, shuffle=True)
test_dataloader = DataLoader(test_data, batch_size=64, shuffle=True)

使用 DataLoaders 准备训练和测试数据。在训练模型时,我们通常希望以“小批量(minibatches)”方式传递样本,每个 epoch 重新洗牌数据以减少模型过拟合,DataLoader 是一个可迭代对象。

next(iter(train_dataloader))

iter(train_dataloader) 将 train_dataloader 转换为一个迭代器对象,可以通过 next 函数逐一获取 DataLoader 中的数据。因此,next(iter(train_dataloader)) 将返回一个包含一个 batch 数据的元组。

具体来说,next 函数会从 train_dataloader 中获取下一个 batch 的数据,并将其转换为一个元组 (batch_data, batch_labels),其中 batch_data 是一个张量(tensor),形状为 [batch_size, input_size],表示一个 batch 中所有样本的输入特征;batch_labels 也是一个张量,形状为 [batch_size, output_size],表示一个 batch 中所有样本的输出标签,下面再举个例子吧。

my_list = [1, 2, 3, 4, 5] 
my_iterator = iter(my_list) 
print(next(my_iterator)) # 输出 1 
print(next(my_iterator)) # 输出 2 
print(next(my_iterator)) # 输出 3

在上面的例子中,my_list 是一个列表对象,通过 iter() 函数将其转换为迭代器 my_iterator。然后通过 next() 函数依次获取 my_iterator 中的每一个元素。

DataLoader 在创建时可以指定多个参数来控制数据的加载方式,常用的参数如下:

dataset:指定要加载的数据集。

batch_size:指定每个 batch 中样本的数量。

shuffle:指定是否在每个 epoch 开始时洗牌数据集。

sampler:指定一个自定义的数据采样器,用于控制每个 batch 中的样本顺序。

batch_sampler:指定一个自定义的 batch 采样器,用于控制 batch 的顺序和样本数量。

num_workers:指定数据加载时的线程数,用于加速数据读取。

collate_fn:指定一个自定义的函数,用于将一个 batch 中的多个样本拼接为一个张量(tensor)。

pin_memory:指定是否将数据加载到 GPU 的显存中,以加速数据读取。

drop_last:指定在数据集大小不是 batch_size 的倍数时,是否丢弃最后一个不足 batch_size 的 batch。

2. Build Model🌺

import torch
from torch import nn

device = "cuda" if torch.cuda.is_available() else "cpu"
print(f"Using {device} device")

我们通过继承 nn.Module 来定义神经网络,并在 __init__ 中初始化神经网络的层。每个 nn.Module 子类在 forward 方法中实现对输入数据的操作。

class NeuralNetwork(nn.Module):
    def __init__(self):
        super().__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
        )

    def forward(self, x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

这段代码定义了一个名为 NeuralNetwork 的神经网络类,它继承自 nn.Module

这个神经网络包含一个 Flatten 层和一个由3个线性层和2个 ReLU 激活函数组成的神经网络层。

__init__ 方法:在 Python 中,当一个类继承自另一个类时,它会继承该类的所有属性和方法。在 PyTorch 中,当你定义一个自己的神经网络类时,你通常会继承 nn.Module 这个基类,因为 nn.Module 已经定义好了很多用于搭建神经网络的基本组件和方法。

当你定义自己的神经网络类时,你需要调用基类的构造函数来继承基类的属性和方法。super().__init__() 就是调用基类(nn.Module)的构造函数,并返回一个代表基类实例的对象,这样你的神经网络类就可以使用 nn.Module 的所有属性和方法了。

forward 方法:就是神经网络的前向传播过程

model = NeuralNetwork().to(device)

这行代码创建了一个名为 model 的神经网络模型实例,使用了前面定义的 NeuralNetwork 类,并将其移动到了特定的设备(CPU 或 GPU)上。使用 to() 方法可以将模型移动到特定的设备上,从而利用 GPU 加速模型的训练和推理。如果设备是 GPU,则模型的所有参数和缓存都会复制到 GPU 上,如果设备是 CPU,则会复制到系统内存中。

3. Optimization🌹

import torch
from torch import nn
from torch.utils.data import DataLoader
from torchvision import datasets
from torchvision.transforms import ToTensor

training_data = datasets.FashionMNIST(
    root="data",
    train=True,
    download=True,
    transform=ToTensor()
)

test_data = datasets.FashionMNIST(
    root="data",
    train=False,
    download=True,
    transform=ToTensor()
)

train_dataloader = DataLoader(training_data, batch_size=64)
test_dataloader = DataLoader(test_data, batch_size=64)

class NeuralNetwork(nn.Module):
    def __init__(self):
        super(NeuralNetwork, self).__init__()
        self.flatten = nn.Flatten()
        self.linear_relu_stack = nn.Sequential(
            nn.Linear(28*28, 512),
            nn.ReLU(),
            nn.Linear(512, 512),
            nn.ReLU(),
            nn.Linear(512, 10),
        )

    def forward(self, x):
        x = self.flatten(x)
        logits = self.linear_relu_stack(x)
        return logits

model = NeuralNetwork()

使用 FashionMNIST 数据集,和之前描述的 Datasets & DataLoadersBuild Model

learning_rate = 1e-3
batch_size = 64
epochs = 5

learning_rate :在每个 batch/epoch 更新模型参数的量。较小的值会导致较慢的学习速度,而较大的值可能会在训练过程中产生不可预测的行为。

batch_size:在更新参数之前,通过网络传播的数据样本数量。

epochs:迭代数据集的次数。

def train_loop(dataloader, model, loss_fn, optimizer):
    size = len(dataloader.dataset)
    for batch, (X, y) in enumerate(dataloader):
        # Compute prediction and loss
        pred = model(X)
        loss = loss_fn(pred, y)

        # Backpropagation
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()

        if batch % 100 == 0:
            loss, current = loss.item(), (batch + 1) * len(X)
            print(f"loss: {loss:>7f}  [{current:>5d}/{size:>5d}]")

定义模型训练函数

for 循环中,我们使用 enumerate 函数遍历 dataloader 中的每个批次(batch),并将批次索引(batch index)和包含输入数据和标签的元组解压缩为 X 和 y。

然后计算出当前批次中的预测(prediction)和损失(loss),以便我们可以通过优化器(optimizer)调整模型的参数以最小化损失。

其次的三行执行反向传播(backpropagation)并使用优化器更新模型的参数。optimizer.zero_grad() 将优化器的梯度归零,否则梯度会出现累加现象。然后使用 backward 函数计算损失相对于模型参数的梯度,最后使用 step 函数将优化器的梯度更新应用到模型的参数上。

这个 if 语句在每100个批次之后打印出当前的损失和训练样本数量,以便我们可以了解模型的训练进度。

def test_loop(dataloader, model, loss_fn):
    size = len(dataloader.dataset)
    num_batches = len(dataloader)
    test_loss, correct = 0, 0

    with torch.no_grad():
        for X, y in dataloader:
            pred = model(X)
            test_loss += loss_fn(pred, y).item()
            correct += (pred.argmax(1) == y).type(torch.float).sum().item()

    test_loss /= num_batches
    correct /= size
    print(f"Test Error: \n Accuracy: {(100*correct):>0.1f}%, Avg loss: {test_loss:>8f} \n")

定义模型测试函数

在前三行中,我们计算出数据集的大小和批次数量,并初始化测试损失(test loss)和正确分类数量(correct)。

这个 with 语句在上下文中禁用梯度计算,因为测试阶段不需要计算梯度,以便我们可以仅使用模型的前向传递(forward pass)进行测试。在这个 for 循环中,我们遍历 dataloader 中的每个批次,使用模型计算出预测,计算当前批次的测试损失,并使用 argmax 函数找到每个样本的预测标签,然后将正确分类的数量累加到 correct 变量中。

计算出平均测试损失和正确分类的比例,并打印出测试结果。我们将测试损失除以批次数量来得到平均测试损失,并将正确分类的数量除以数据集大小来得到正确分类的比例。最后,我们打印出测试结果,其中包括正确分类的百分比和平均测试损失。

correct += (pred.argmax(1) == y).type(torch.float).sum().item()

这行代码有点抽象

这行代码的作用是计算当前批次中正确分类的数量,它可以分为几个步骤来理解:

首先,pred.argmax(1) 用来计算模型预测的最大概率值对应的类别,其中1表示按行计算最大值,即计算每个样本最有可能属于哪个类别。

接下来,pred.argmax(1) == y 用于将预测类别与真实类别进行比较,生成一个大小为批次大小的布尔张量,表示哪些样本被正确分类了。

然后,(pred.argmax(1) == y).type(torch.float) 将布尔张量转换为浮点数张量,其中正确分类的样本对应的元素值为1,错误分类的样本对应的元素值为0。

最后,.sum().item() 用于将正确分类的样本的元素值求和,并将结果转换为 Python 数值类型。

loss_fn = nn.CrossEntropyLoss()
optimizer = torch.optim.SGD(model.parameters(), lr=learning_rate)

for t in range(epochs):
    print(f"Epoch {t+1}\n-------------------------------")
    train_loop(train_dataloader, model, loss_fn, optimizer)
    test_loop(test_dataloader, model, loss_fn)
print("Done!")

定义了一个交叉熵损失函数和一个随机梯度下降(SGD)优化器。交叉熵损失通常用于多类别分类问题,而 SGD 优化器是一种基本的梯度下降算法,用于更新模型的参数,使其逐渐逼近最优值。

这里定义了一个循环,用于多次训练和测试模型。具体来说,循环会运行 epochs 次,其中每次循环代表一个“训练周期”(epoch),在每个训练周期中,代码会先调用 train_loop() 函数来训练模型,然后调用 test_loop() 函数来测试模型在测试集上的性能。

4. Save & Load Model🌸

# Additional information
# 记录模型的相关训练信息
EPOCH = 5
PATH = "model.pt"
LOSS = 0.4

torch.save({
            'epoch': EPOCH,
            'model_state_dict': net.state_dict(),
            'optimizer_state_dict': optimizer.state_dict(),
            'loss': LOSS,
            }, PATH)

下面是模型的加载。文章来源地址https://www.toymoban.com/news/detail-405015.html

model = Net()  # 自己定义的网络
optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)

checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']

model.eval()
# - or -
model.train()

到了这里,关于PyTorch 神经网络搭建模板的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 小白的机器学习之路(四)神经网络的初步认识:基于pytorch搭建自己的神经网络

    当前交通大数据业务的需要,需要承担一部分算法工作(数据处理) 目标四: 学习深度学习基础:了解神经网络的基本结构、反向传播算法和激活函数等。 目标任务:使用深度学习算法构建一个简单的神经网络模型,并训练模型。 学习计划小贴士: 每天定期复习前几天的

    2024年02月15日
    浏览(37)
  • 人工智能(Pytorch)搭建模型6-使用Pytorch搭建卷积神经网络ResNet模型

    大家好,我是微学AI,今天给大家介绍一下人工智能(Pytorch)搭建模型6-使用Pytorch搭建卷积神经网络ResNet模型,在本文中,我们将学习如何使用PyTorch搭建卷积神经网络ResNet模型,并在生成的假数据上进行训练和测试。本文将涵盖这些内容:ResNet模型简介、ResNet模型结构、生成假

    2024年02月06日
    浏览(75)
  • 《Pytorch新手入门》第二节-动手搭建神经网络

    参考《深度学习框架PyTorch:入门与实践_陈云(著)》 代码链接:https://github.com/chenyuntc/pytorch-book 神经网络是机器学习中的一种模型,是一种模仿动物神经网络行为特征,进行分布式并行信息处理的算法数学模型。这种网络依靠系统的复杂程度,通过调整内部大量节点之间相互

    2024年02月05日
    浏览(42)
  • Pytorch:搭建卷积神经网络完成MNIST分类任务:

    2023.7.18 MNIST百科: MNIST数据集简介与使用_bwqiang的博客-CSDN博客 数据集官网:MNIST handwritten digit database, Yann LeCun, Corinna Cortes and Chris Burges 数据集将按以图片和文件夹名为标签的形式保存:  代码:下载mnist数据集并转还为图片  训练代码: 测试代码: 分类正确率不错:

    2024年02月17日
    浏览(43)
  • 人工智能(pytorch)搭建模型10-pytorch搭建脉冲神经网络(SNN)实现及应用

    大家好,我是微学AI,今天给大家介绍一下人工智能(pytorch)搭建模型10-pytorch搭建脉冲神经网络(SNN)实现及应用,脉冲神经网络(SNN)是一种基于生物神经系统的神经网络模型,它通过模拟神经元之间的电信号传递来实现信息处理。与传统的人工神经网络(ANN)不同,SNN 中的

    2024年02月08日
    浏览(48)
  • Pytorch入门学习——快速搭建神经网络、优化器、梯度计算

    我的代码可以在我的Github找到 GIthub地址 https://github.com/QinghongShao-sqh/Pytorch_Study 因为最近有同学问我如何Nerf入门,这里就简单给出一些我的建议: (1)基本的pytorch,机器学习,深度学习知识,本文介绍的pytorch知识掌握也差不多. 机器学习、深度学习零基础的话B站​吴恩达、

    2024年02月14日
    浏览(40)
  • 神经网络(十五)在VS Code下搭建PyTorch环境

            本文主要记录如何在电脑中安装pytorch以及在vscode中配置相关环境,以及在配置过程中遇到的一些问题。废话不多说,现在开始。         前往微软官网下载vs code,选择社区版,默认安装即可         前往Anaconda官网下载一个安装包,要注意自己电脑的Python版本,

    2024年02月22日
    浏览(44)
  • 学习pytorch13 神经网络-搭建小实战&Sequential的使用

    B站小土堆pytorch视频学习 https://pytorch.org/docs/stable/generated/torch.nn.Sequential.html#torch.nn.Sequential sequential 将模型结构组合起来 以逗号分割,按顺序执行,和compose使用方式类似。 箭头指向部分还需要一层flatten层,展开输入shape为一维 tensorboard 展示图文件, 双击每层网络,可查看层

    2024年02月07日
    浏览(39)
  • 使用自己的数据利用pytorch搭建全连接神经网络进行回归预测

    引入必要的库,包括PyTorch、Pandas等。 这里使用sklearn自带的加利福尼亚房价数据,首次运行会下载数据集,建议下载之后,处理成csv格式单独保存,再重新读取。 后续完整代码中,数据也是采用先下载,单独保存之后,再重新读取的方式。

    2024年02月13日
    浏览(46)
  • PyTorch入门学习(十二):神经网络-搭建小实战和Sequential的使用

    目录 一、介绍 二、先决条件 三、代码解释 一、介绍 在深度学习领域,构建复杂的神经网络模型可能是一项艰巨的任务,尤其是当您有许多层和操作需要组织时。幸运的是,PyTorch提供了一个方便的工具,称为Sequential API,它简化了神经网络架构的构建过程。在本文中,将探

    2024年02月05日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包