【学习笔记】神经网络相关

这篇具有很好参考价值的文章主要介绍了【学习笔记】神经网络相关。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

神经网络

人工神经网络(Artificial Neural Network,ANN)常简称为神经网络(Neural Network,NN),它是一种通过数学模型来模拟生物大脑神经网络以及生物大脑功能的技术。

神经网络的历史

1943年,心理学家McCulloch和数学家Pitts提出了MP模型。该模型将一个生物神经元的结构简化成数学模型。
单个MP模型可以用以下公式表示:
O j = f ( ∑ i = 1 n w i j x i ) O_j=f(\sum_{i=1}^nw_{ij}x_{i}) Oj=f(i=1nwijxi)
f f f表示激活函数。常用的激活函数有sigmoid函数、Tanh函数、ReLU函数、Leaky ReLU函数。

感知机只能解决线性可分的数据。单层感知机(Perceptron)无法解决线性不可分的问题。
2006年,Jeffery Hinton提出了Deep Learning(深度学习)的概念。

神经网络的优势

传统机器学习算法。如支持向量机、随机森林等都是非常优秀的算法,它们推导过程是清晰的。使用传统机器学习算法进行模型训练,它的训练过程是透明的,你可以比较清楚地了解训练过程中发生了什么,以及为什么会造成这样的结果,这点是当前神经网络所不具有的,即神经网络在训练过程中是不透明的。
将复杂神经网络结构拆解成一个个的神经元,可以非常简单地理解这个神经元会对输入数据进行什么样的操作,但当几万个、几百万个甚至上千万个神经元连接成 一个复杂的体系时,要理解它就没有那么容易了。换句话说,使用一个神经网络训练某些数据,最终获得了比较好的结果,但使用者本身也不知道为什么好。
简单来说,神经网络只是将许多线性变换和非线性变换叠加在一起。那么为什么不使用透明度高、可解释性好的传统机器学习算法呢?一个核心的原因就是传统机器学习算法很难实现学习数据集中的特征。
解决一个机器学习问题的一般步骤:通过数据预处理从数据集中提取出相应的特征集,再将提取的特征集喂给相应的机器学习算法,训练,然后问题解决。很完美!但是现实中,很多任务面对的问题是我们不知道怎么做数据预处理,也不知道应该从数据集中提取哪些特征的。这些问题是严重的,因为整个计算机科学对数据特征表示都有较强的依赖。同样的机器学习算法,面对不同的特质表示,可能训练出两个准确率与性能有巨大差异的模型。这并不奇怪,而且生活中,很多数据具有非常多的“变差因素”。例如老人和小孩说一句同样的话,虽然对我们人类而言这是相同的一句话,但对计算机而言,这两份数据有巨大的不同。如果不提取出这两份数据共有的特征,训练效果就会变得很差。因为传统机器学习算法面临数据特征难以获得的问题,所以很多问题无法直接使用传统机器学习算法解决。
但对神经网络而言,因为它可以叠加无限多的线性变换和非线性变换,所以理论上神经网络可以拟合任何函数。利用这个特性,再通过相应的优化算法进行训练,神经网络就可以挖掘出数据集中隐含的特征,解决数据集特征表示困难的巨大问题。通过我们使用模型本身来挖掘数据的方法成为表示学习。对于一些简单的任务,表示学习在几分钟内就可以挖掘出数据集的特征表示;对于复杂任务,可能花上几小时或者几个月,但相对于人工设计数据集要花费几年时间而言,已经是巨大的进步。

神经网络中常见的概念

前向传播算法

负责将神经网络中输入层的输入逐层加权运算传递到输出层。

损失函数

用来量化模型输出层输出的预测值与真实值之间的差距。

梯度下降算法

对于某个点找到一个具体的“方向”,该“方向”相对于其他“方向”具有最大的梯度,梯度下降就是让这个点往这个方向移动一小段距离。

反向传播算法

Back Propagation Algorithm,简称BP算法,也称误差反向传播算法。

过拟合和欠拟合

Overfitting
Underfitting
泛化 Generalize
泛化误差 = 偏差 + 方差 + 噪声

参考书籍

深入浅出GAN生成对抗网络原理剖析与TensorFlow实践文章来源地址https://www.toymoban.com/news/detail-793615.html

到了这里,关于【学习笔记】神经网络相关的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【笔记整理】图神经网络学习

    参考 用于分析结构化数据的图神经网络 (GNN) 简介 Graph Neural Networks: Methods, Applications, and Opportunities 图神经网络(Graph Neural Networks,GNN)综述 如何通俗地解释欧氏空间? 2021_金融智能下的图机器学习实践 2021_图神经网络加速芯片:人工智能 “认知智能”阶段起飞的推进剂 A Ge

    2024年02月06日
    浏览(56)
  • 【机器学习笔记】10 人工神经网络

    1943年,心理学家McCulloch和逻辑学家Pitts建立神经网络的数学模型,MP模型 每个神经元都可以抽象为一个圆圈,每个圆圈都附带特定的函数称之为激活函数,每两个神经元之间的连接的大小的加权值即为权重。 1960年代,人工网络得到了进一步地发展感知机和自适应线性元件等

    2024年02月19日
    浏览(39)
  • 深度学习笔记之循环神经网络(十)基于循环神经网络模型的简单示例

    本节我们将前面介绍的几种 循环神经网络 —— RNN,LSTM,GRU text{RNN,LSTM,GRU} RNN,LSTM,GRU 关于实例中的一个演示,但重点并不仅在于这些模型,这里以 示例 的形式对 One-hot text{One-hot} One-hot 向量 重新进行认知 。 自然语言 ( Natural Language ) (text{Natural Language}) ( Natural Language ) 是人类

    2024年02月07日
    浏览(49)
  • 深度学习笔记_1、定义神经网络

     

    2024年02月07日
    浏览(42)
  • 学习笔记:深度学习(3)——卷积神经网络(CNN)理论篇

    学习时间:2022.04.10~2022.04.12 CNN(Convolutional Neural Networks, ConvNets, 卷积神经网络)是神经网络的一种,是理解图像内容的最佳学习算法之一,并且在图像分割、分类、检测和检索相关任务中表现出色。 3.1.1 什么是CNN? CNN是一种带有卷积结构的前馈神经网络, 卷积结构 可以减少

    2024年02月03日
    浏览(89)
  • 李宏毅机器学习笔记:RNN循环神经网络

    例如情景补充的情况,根据词汇预测该词汇所属的类别。这个时候的 Taipi 则属于目的地。但是,在订票系统中, Taipi 也可能会属于出发地。到底属于目的地,还是出发地,如果不结合上下文,则很难做出判断。因此,使用传统的深度神经网络解决不了问题,必须引入RNN。 如

    2024年02月10日
    浏览(50)
  • 《动手学深度学习》学习笔记 第9章 现代循环神经网络

    书籍链接: 动手学深度学习 笔记是从第四章开始,前面三章为基础知识,有需要的可以自己去看看 关于本系列笔记: 书里为了让读者更好的理解,有大篇幅的描述性的文字,内容很多,笔记只保留主要内容,同时也是对之前知识的查漏补缺 《动手学深度学习》学习笔记 第

    2024年01月18日
    浏览(51)
  • 图神经网络论文笔记(一)——北邮:基于学习解纠缠因果子结构的图神经网络去偏

    作者 :范少华 研究方向 :图神经网络 论文标题 : 基于学习解耦因果子结构的图神经网络去偏 论文链接 :https://arxiv.org/pdf/2209.14107.pdf         https://doi.org/10.48550/arXiv.2209.14107   大多数图神经网络(GNNs)通过学习输入图和标签之间的相关性来预测不可见图的标签。然而,

    2024年02月07日
    浏览(43)
  • 《Pytorch深度学习和图神经网络(卷 2)》学习笔记——第一章

    PyTorch深度学习和图神经网络(卷2)——开发应用一书配套代码: https://github.com/aianaconda/pytorch-GNN-2nd- 百度网盘链接:https://pan.baidu.com/s/1dnq5IbFjjdekAR54HLb9Pg 提取码:k7vi 压缩包密码:dszn 2012年起,在ILSVRC竞赛中获得冠军的模型如下 2012年:AlexNet 2013年:OverFeat 2014年:GoogLeNet、

    2024年02月16日
    浏览(43)
  • 《Pytorch深度学习和图神经网络(卷 1)》学习笔记——第七章

    这一章内容有点丰富,多用了一些时间,实例就有四五个。 这章内容是真多啊!(学完之后又回到开头感叹) 将图像从基础像素到局部信息再到整体信息 即将图片由低级特征到高级特征进行逐级计算,逐级累计。 计算机中对图片的处理可以理解为离散微积分的过程。 利用

    2024年02月12日
    浏览(46)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包