BP神经网络基础架构及流程(简单易懂版)

这篇具有很好参考价值的文章主要介绍了BP神经网络基础架构及流程(简单易懂版)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

这里用比较简单的语言和思路(自认为)为大家介绍一下BP神经网络的基础架构和流程。不会写数学推导以及一些绕来绕去的概念,尽可能让大家一看就懂怎么回事。因此这篇文章适合初学者,帮助顺清整个流程。

有一点点基础的同学直接看最后一张图,看看最后那两个式子应该就懂了!

首先看个图,以下讲解以这个神经网络结构为例。

BP神经网络基础架构及流程(简单易懂版)

我们应该明确构建神经网络的目的是: 通过输入X1X2,经过一些操作得到一个y

中间这些神经元构成的结构就是神经网络。

首先明确一下这个流程里有哪些东西。请看下图。

BP神经网络基础架构及流程(简单易懂版)

第一列两个神经元称为输入层i,中间三个神经元称为中间层j,最后一个神经元称为输出层k

除了输入层,每个神经元都自带一个偏置b,且自带一个激活函数f。每个神经元之间的连线称为权重w,图中加粗的三根线表示输入层第一个神经元中间层三个神经元之间的权重w。其他没写的线也同理。

总结一下,目前所有出现的东西有:

输入值X,神经元之间的权重w,每个神经元自带的b,每个神经元自带的激活函数f

后面还会出现uy

我们用一个最简单的结构来梳理流程:

BP神经网络基础架构及流程(简单易懂版)

首先X1给到输入层神经元,然后用BP神经网络基础架构及流程(简单易懂版)得到一个u,这个u经过激活函数f会变成y。此时中间层神经元就有值了,值为y

BP神经网络基础架构及流程(简单易懂版)

 输出层的值也这样算。算BP神经网络基础架构及流程(简单易懂版)得到一个uu经过激活函数f得到y,这个y就是最终结果Y。注意这里的bf不一定和上一个神经元的bf一样,每一个神经元的bf都是可以不一样的。

通式为:

BP神经网络基础架构及流程(简单易懂版)

所有神经元都按照这个流程算,输入层神经元获取x就可以往后算,中间层神经元的x就是上一层神经元算出来的y输出层神经元的x就是中间层神经元算出来的y

我们看这个红色的神经元,想要算这个神经元的值怎么算?

BP神经网络基础架构及流程(简单易懂版)

BP神经网络基础架构及流程(简单易懂版) 

这样就算出来红色神经元的值为y,其他神经元同理。文章来源地址https://www.toymoban.com/news/detail-473100.html

到了这里,关于BP神经网络基础架构及流程(简单易懂版)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 神经网络基础-神经网络补充概念-61-单层卷积网络

    单层卷积网络是一种简单的神经网络结构,它仅包含一个卷积层,通常紧跟着一个激活函数以及可能的池化层和全连接层。这种结构可以用来提取输入数据的特征,适用于一些简单的任务。

    2024年02月12日
    浏览(46)
  • 深度神经网络基础——深度学习神经网络基础 & Tensorflow在深度学习的应用

    Tensorflow入门(1)——深度学习框架Tesnsflow入门 环境配置 认识Tensorflow 深度学习框架Tesnsflow 线程+队列+IO操作 文件读取案例 神经网络的种类: 基础神经网络:单层感知器,线性神经网络,BP神经网络,Hopfield神经网络等 进阶神经网络:玻尔兹曼机,受限玻尔兹曼机,递归神经

    2024年02月16日
    浏览(47)
  • 神经网络基础-神经网络补充概念-05-导数

    导数是微积分中的一个概念,用于描述函数在某一点的变化率。在数学中,函数的导数表示函数值随着自变量的微小变化而产生的变化量,即斜率或变化率。 假设有一个函数 f(x),其中 x 是自变量,y = f(x) 是因变量。函数 f(x) 在某一点 x0 处的导数表示为 f’(x0),也可以写作

    2024年02月12日
    浏览(44)
  • 神经网络基础-神经网络补充概念-40-神经网络权重的初始化

    神经网络权重的初始化是深度学习中的重要步骤,良好的权重初始化可以加速模型的训练收敛,提高模型的性能和稳定性。以下是一些常用的权重初始化方法: 零初始化(Zero Initialization):将权重初始化为零。然而,这种方法不太适合深层神经网络,因为它会导致所有神经

    2024年02月12日
    浏览(51)
  • 神经网络基础-神经网络补充概念-20-激活函数

    激活函数是神经网络中的一个重要组成部分,它引入了非线性性质,使得神经网络可以学习和表示更复杂的函数关系。激活函数对于将输入信号转换为输出信号起到了关键作用,它在神经元的计算过程中引入了非线性变换。 Sigmoid函数: Sigmoid 函数将输入映射到一个 0 到 1 的

    2024年02月12日
    浏览(47)
  • 神经网络基础-神经网络补充概念-62-池化层

    池化层(Pooling Layer)是深度学习神经网络中常用的一种层级结构,用于减小输入数据的空间尺寸,从而降低模型的计算复杂度,减少过拟合,并且在一定程度上提取输入数据的重要特征。池化层通常紧跟在卷积层之后,用于缩小卷积层输出的尺寸。 常见的池化操作包括最大

    2024年02月12日
    浏览(51)
  • 神经网络基础-神经网络补充概念-48-rmsprop

    RMSProp(Root Mean Square Propagation)是一种优化算法,用于在训练神经网络等机器学习模型时自适应地调整学习率,以加速收敛并提高性能。RMSProp可以有效地处理不同特征尺度和梯度变化,对于处理稀疏数据和非平稳目标函数也表现良好。 RMSProp的核心思想是根据参数梯度的历史

    2024年02月12日
    浏览(47)
  • 神经网络基础-神经网络补充概念-59-padding

    在深度学习中,“padding”(填充)通常是指在卷积神经网络(Convolutional Neural Networks,CNNs)等神经网络层中,在输入数据的周围添加额外的元素(通常是零),以调整输入数据的尺寸或形状,从而影响输出的尺寸。 主要目的是为了解决卷积层或池化层等操作对输入尺寸的影

    2024年02月12日
    浏览(50)
  • 神经网络基础-神经网络补充概念-01-二分分类

    二分分类是一种常见的机器学习任务,其目标是将一组数据点分成两个不同的类别。在二分分类中,每个数据点都有一个与之关联的标签,通常是“正类”或“负类”。算法的任务是根据数据点的特征来学习一个模型,以便能够准确地将新的未标记数据点分配到正确的类别中

    2024年02月13日
    浏览(45)
  • 神经网络基础-神经网络补充概念-60-卷积步长

    在深度学习中,卷积步长(convolution stride)是指在卷积操作中滑动卷积核的步幅。卷积操作是神经网络中常用的操作之一,用于从输入数据中提取特征。步长决定了卷积核在输入数据上的滑动间隔,从而影响输出特征图的大小。 卷积步长的值可以是正整数,通常为1、2、3等。

    2024年02月12日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包