入门深度学习——基于全连接神经网络的手写数字识别案例(python代码实现)

这篇具有很好参考价值的文章主要介绍了入门深度学习——基于全连接神经网络的手写数字识别案例(python代码实现)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

入门深度学习——基于全连接神经网络的手写数字识别案例(python代码实现)

一、网络构建

1.1 问题导入

如图所示,数字五的图片作为输入,layer01层为输入层,layer02层为隐藏层,找出每列最大值对应索引为输出层。根据下图给出的网络结构搭建本案例用到的全连接神经网络
python手写数字识别人工神经网络,人工智能,深度学习,Pytorch,深度学习,python,神经网络

1.2 手写字数据集MINST

如图所示,MNIST数据集是机器学习领域中非常经典的一个数据集,由60000个训练样本和10000个测试样本组成,每个样本都是一张28 * 28像素的灰度手写数字图片。数据集也被嵌入到sklearn和pytorch框架中可以直接调用。这里我们默认已经安装了pytorch框架。不会使用的这里简单介绍一下。
大家可以用按住win+R键,打开运行窗口,输入cmd。
python手写数字识别人工神经网络,人工智能,深度学习,Pytorch,深度学习,python,神经网络
输入cmd,回车后,会显示如下。
python手写数字识别人工神经网络,人工智能,深度学习,Pytorch,深度学习,python,神经网络
输入以下的命令,可以看看自己的电脑的显卡是不是NVIDIA。如果是AMD的,那么就安装cpu的吧,毕竟CUDA内核,只支持NVIDIA的显卡。

#AMD显卡
pip install pytorch-cpu
#NVIDIA显卡
pip install pytorch
#如果速度慢的话,可以加入清华源的链接
pip install pytorch-cpu -i https://pypi.tuna.tsinghua.edu.cn/simple/
#NVIDIA显卡
pip install pytorch -i https://pypi.tuna.tsinghua.edu.cn/simple/

这样就完成了,仍然存在问题的小伙伴,可以参考小程序员推荐的这个up主的教程pytorch保姆级教程。
这里我们输出几张图片和对应的标签。作为对数据集的了解,也方便我们针对性的设计网络结构,做到心中有数。
python手写数字识别人工神经网络,人工智能,深度学习,Pytorch,深度学习,python,神经网络

二、采用Pytorch框架编写全连接神经网络代码实现手写字识别

2.1 导入必要的包

import torch
import numpy as np
from torch import nn
import torch.nn.functional as F
from torchvision import datasets,transforms
from torch.utils.data import DataLoader

2.2 定义一些数据预处理操作

pipline=transforms.Compose([transforms.ToTensor(),transforms.Normalize([0.5],[0.5])])

2.3 下载数据集(训练集vs测试集)

train_dataset=datasets.MNIST('./data',train=True,transform=pipline,download=True)
test_dataset=datasets.MNIST('./data',train=False,transform=pipline,download=True)
print(len(train_dataset))
print(len(test_dataset))

60000
10000

2.4 分批加载训练集和测试集中的数据到内存里

train_loader=DataLoader(train_dataset,batch_size=32,shuffle=True)
test_loader=DataLoader(test_dataset,batch_size=32)

2.5 可视化数据集中的数据,做到心中有数

import matplotlib.pyplot as plt
examples=enumerate(train_loader)
_,(example_data,example_label)=next(examples)
print(example_data.shape)
for i in range(6):
    plt.subplot(2,3,i+1)
    plt.tight_layout()
    plt.imshow(example_data[i][0],cmap='gray')
#     plt.title('Ground Truth:{}'.format(example_label[i]))
    plt.title(f'Ground Truth:{example_label[i]}')

torch.Size([32, 1, 28, 28])
python手写数字识别人工神经网络,人工智能,深度学习,Pytorch,深度学习,python,神经网络

2.6 网络模型设计(有时也称为网络模型搭建)

class Net(nn.Module):
    def __init__(self,in_dim,n_hidden_1,n_hidden_2,out_dim):
        super(Net,self).__init__()
        self.layer1=nn.Sequential(nn.Linear(in_dim,n_hidden_1),nn.ReLU(True))
        self.layer2=nn.Sequential(nn.Linear(n_hidden_1,n_hidden_2),nn.Sigmoid())
        self.layer3=nn.Linear(n_hidden_2,out_dim)    
        
    def forward(self,x):
        x=self.layer1(x)
        x=self.layer2(x)
        x=self.layer3(x)
        return x
model=Net(28*28,300,100,10)
model

以下结果来自Jupyter Notebook
Net(
(layer1): Sequential(
(0): Linear(in_features=784, out_features=300, bias=True)
(1): ReLU(inplace=True)
)
(layer2): Sequential(
(0): Linear(in_features=300, out_features=100, bias=True)
(1): Sigmoid()
)
(layer3): Linear(in_features=100, out_features=10, bias=True)
)

import torch.optim as optim
criterion=nn.CrossEntropyLoss()   #选用Pytorch中nn模块封装好的交叉熵损失函数
optimizer=optim.SGD(model.parameters(),lr=0.01,momentum=0.5)  #选用随机梯度下降法(SGD)作为本模型的梯度下降法
device=torch.device('cuda' if torch.cuda.is_available() else 'cpu')   #确定代码运行设备究竟实在GPU还是CPU上跑
model.to(device)

2.7 训练网络模型

losses=[]
acces=[]

eval_losses=[]
eval_acces=[]

#训练轮数---epoch

for epoch in range(10):
    train_loss=0
    train_acc=0
    model.train()   #启用网络模型隐藏层中的dropout和BN(批归一化)操作
    
    if epoch%5==0:   #控制训练轮数间隔
        optimizer.param_groups[0]['lr']*=0.9    #动态调整学习率
        
    for img,label in train_loader:
        img=img.to(device)   #将训练图片写到设备里
        label=label.to(device)  #将图片类别写到设备里
        img=img.view(img.size(0),-1)
        
        out=model(img)   #调用前向传播函数得到预测值
        loss=criterion(out,label)   #计算预测值和真实值的损失
        
        optimizer.zero_grad()  #在新一轮反向传播开始前,清空上一轮反向传播得到的梯度
        loss.backward()  #把上一部得到的损失执行反向传播,得到新的网络模型参数(权值)
        optimizer.step()   #把上一部得到的新的权值更新到网络模型里
        
        #在前面前向传播和反向传播的额基础上,计算一些训练算法性能指标
        
        train_loss+=loss.item()  #记录反向传播每一轮得到的损失
        
        _,pred=out.max(1)   #得到图片的预测类别
        
        num_correct=(pred==label).sum().item()   #获取预测正确的样本数量
        acc=num_correct/img.shape[0]      #每一批次的正确率
        train_acc+=acc       #每一轮次的额正确率
        
    losses.append(train_loss/len(train_loader))    #所有轮次训练完之后总的损失
    acces.append(train_acc/len(train_loader))     #所有轮次训练完之后总的正确率

2.8 在测试集上测试网络模型,检验模型效果

eval_loss=0
eval_acc=0
model.eval()   #继续沿用BN操作,但是不再使用dropout操作

with torch.no_grad():
    for img,label in test_loader:
        img=img.to(device)
        label=label.to(device)
        
        img=img.view(img.size(0),-1)
        
        out=model(img)
        loss=criterion(out,label)
        
        eval_loss+=loss.item()   #记录每一批次的损失
        
        _,pred=out.max(1)
        
        num_correct=(pred==label).sum().item()
        acc=num_correct/img.shape[0]   #记录每一批次的准确率
        eval_acc+=acc     #记录每一轮的准确率
        

    eval_losses.append(eval_loss / len(test_loader))
    eval_acces.append(eval_acc / len(test_loader))
    print('epoch: {}, Train Loss: {:.4f}, Train Acc: {:.4f}, Test Loss: {:.4f}, Test Acc: {:.4f}'
      .format(epoch, train_loss / len(train_loader), train_acc / len(train_loader), 
                 eval_loss / len(test_loader), eval_acc / len(test_loader)))

epoch: 0, Train Loss: 1.1721, Train Acc: 0.6760, Test Loss: 0.4936, Test Acc: 0.8692
epoch: 1, Train Loss: 0.4093, Train Acc: 0.8866, Test Loss: 0.3368, Test Acc: 0.9020
epoch: 2, Train Loss: 0.3192, Train Acc: 0.9084, Test Loss: 0.2884, Test Acc: 0.9171
epoch: 3, Train Loss: 0.2755, Train Acc: 0.9194, Test Loss: 0.2552, Test Acc: 0.9271
epoch: 4, Train Loss: 0.2429, Train Acc: 0.9290, Test Loss: 0.2251, Test Acc: 0.9349
epoch: 5, Train Loss: 0.2160, Train Acc: 0.9367, Test Loss: 0.2001, Test Acc: 0.9405
epoch: 6, Train Loss: 0.1945, Train Acc: 0.9433, Test Loss: 0.1854, Test Acc: 0.9447
epoch: 7, Train Loss: 0.1761, Train Acc: 0.9494, Test Loss: 0.1716, Test Acc: 0.9504
epoch: 8, Train Loss: 0.1601, Train Acc: 0.9540, Test Loss: 0.1597, Test Acc: 0.9527
epoch: 9, Train Loss: 0.1468, Train Acc: 0.9572, Test Loss: 0.1434, Test Acc: 0.9567

2.10可视化训练及测试的损失值

plt.title('Train Loss')
plt.plot(np.arange(len(losses)),losses);
plt.legend(['Train Loss'],loc='upper right')                   

损失函数的结果:
python手写数字识别人工神经网络,人工智能,深度学习,Pytorch,深度学习,python,神经网络

三、代码文件

小程序员将代码文件和相关素材整理到了百度网盘里,因为文件大小基本不大,大家也不用担心限速问题。后期小程序员有能力的话,将在gitee或者github上上传相关素材。
链接:https://pan.baidu.com/s/1Ce14ZQYEYWJxhpNEP1ERhg?pwd=7mvf
提取码:7mvf文章来源地址https://www.toymoban.com/news/detail-768280.html

到了这里,关于入门深度学习——基于全连接神经网络的手写数字识别案例(python代码实现)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

    Pre-training + Fine-tuning Pre-training(预训练) : 监督逐层训练是多隐层网络训练的有效手段, 每次训练一层隐层结点, 训练时将上一层隐层结点的输出作为输入, 而本层隐结点的输出作为下一层隐结点的输入, 这称为”预训练”. Fine-tuning(微调) : 在预训练全部完成后, 再对整个网络进行

    2024年02月10日
    浏览(41)
  • 深度学习入门(二)之神经网络

    在感知机中,参数的值需要我们人工去设置,神经网络的出现就是解决这一问题,具体的讲,神经网络的一个重要性质就是它 可以自动地从数据中学习到合适的权重参数 最左边称为 输入层 ,最右边为 输出层 ,中间称为 中间层或者隐藏层 。隐藏层的神经元肉眼看不到。 从

    2024年02月07日
    浏览(32)
  • [深度学习入门]什么是神经网络?[神经网络的架构、工作、激活函数]

      在大多数资料中,神经网络都被描述成某种 正向传播的矩阵乘法 。而本篇博文 通过将神经网络描述为某种计算单元 ,以一种更加简单易懂的方式介绍神经网络的功能及应用。   广义上讲,神经网络就是要 在输入数据中找寻某种规律 ,就像这个经典的例子: 手写数

    2024年02月17日
    浏览(44)
  • 深度学习入门(二):神经网络整体架构

    作用于每一层的输入,通过逐层计算得到输出结果 作用于网络输出,通过计算梯度由深到浅更新网络参数 层次结构:逐层变换数据 神经元:数据量、矩阵大小(代表输入特征的数量) x : [ 1 , 3 ] x:[1,3] x : [ 1 , 3 ] w 1 : [ 3 , 4 ] w_1:[3,4] w 1 ​ : [ 3 , 4 ] h i d d e n l a y e r

    2024年02月15日
    浏览(38)
  • 深度学习入门(一):神经网络基础

    1、定义 通过训练多层网络结构对位置数据进行分类或回归,深度学习解决特征工程问题。 2、深度学习应用 图像处理 语言识别 自然语言处理 在移动端不太好,计算量太大了,速度可能会慢 eg.医学应用、自动上色 3、例子 使用k最近邻进行判断时, 背景主导 是最大的问题,

    2024年02月15日
    浏览(44)
  • 深度学习入门(三):卷积神经网络(CNN)

    给定一张图片,计算机需要模型判断图里的东西是什么? (car、truck、airplane、ship、horse) CONV:卷积计算层,线性乘积求和 RELU:激励层,激活函数 POOL:池化层,取区域平均或最大(MAX POOL) PC:全连接层 对CNN来说,它是一块一块进行对比的,“小块”称之为Features特征。

    2024年02月11日
    浏览(33)
  • 深度学习入门教学——卷积神经网络CNN

    1、应用领域 检测任务 分类与检索 超分辨率重构 2、卷积网络与传统网咯的区别 传统神经网络和卷积神经网络都是用来 提取特征 的。 神经网络: 可以将其看作是一个二维的。 卷积神经网络: 可以将其看作是一个三维的。  3、整体框架 该层主要是对原始图像数据进行预处

    2024年02月10日
    浏览(31)
  • 【深度学习-神经网络架构-通俗易懂的入门课程】

    AI 包括 机器学习 包括 深度学习 目前深度学习的算法表现更好 数据获取 特征工程 建立模型 评估与应用 特征、算法 特征决定了模型的上限,算法和参数决定了如何去逼近这个基线 问题:传统的机器学习算法,在数据规模上升时,效果无法提升 模型如何搭建? 领域都有成型

    2024年02月16日
    浏览(38)
  • 基于 Python中的深度学习:神经网络与卷积神经网络

    当下,深度学习已经成为人工智能研究和应用领域的关键技术之一。作为一个开源的高级编程语言,Python提供了丰富的工具和库,为深度学习的研究和开发提供了便利。本文将深入探究Python中的深度学习,重点聚焦于神经网络与卷积神经网络的原理和应用。 深度学习是机器学

    2024年02月07日
    浏览(41)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包