【复习】人工智能 第 8 章 人工神经网络及其应用

这篇具有很好参考价值的文章主要介绍了【复习】人工智能 第 8 章 人工神经网络及其应用。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

因为计算牵扯到导数,所以这章难的部分不会考太难。

人工神经网络是对人脑或生物神经网络若干基本特性的抽象和模拟。

深度学习是神经网络的发展。

人工智能曾经历过很长一段时间的停滞不前。

浩瀚的宇宙中,也许只有包含数千忆颗星球的银河系的复杂性能够与大脑相比。

还是提前看一下这篇文章吧:技术篇:单层神经网络是什么,看完这篇文章你就懂了 - 腾讯云开发者社区-腾讯云

(一定要看,弄懂权重w,和输入a是什么)

一、神经网络

生物神经网络: 由中枢神经系统(脑和脊髓)及周围神经系统(感觉神经、运动神经等)所构成的错综复杂的神经网络,其中最重要的是脑神经系统。

人工神经网络: 模拟人脑神经系统的结构和功能,运用大量简单处理单元经广泛连接而组成的人工网络系统。

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

如上图所示,神经元1的轴突传递了4个信号给神经元2,分别是输入1、输入2、输入3和输入4。

而神经元2的输出信号(输出1和输出2)分别是神经元3的输入信号(输入1和输入2)。

如果输入信号之和超过神经元固有的边界值(阈值),细胞体就会做出反应,向与轴突连接的其他神经元传递信号,这称为激活

激活时神经元输出的信号大小固定的。即便从邻近的神经元接收到很大的刺激,或者轴突连接着多个神经元,这个神经元也只输出固定大小的信号

激活的输出信号是由"0" 或 "1"表示的数字信息:无输出信号,y=0有输出信号,y=1

生物神经网络的最小单位——神经元

人工神经网络的最小单位——感知机

二、神经元特点及M-P神经模型

(1)多输入单输出

(2)输入类型包含兴奋性和抑制性

(3)空间整合特性和阈值特性(对全部输入信号进行整合,以确定各类输入的作用总效果,超过阈值了才会发送脉冲)

(4)我们有一个数据,称之为样本。样本有四个属性,其中三个属性已知,一个属性未知。我们需要做的就是通过三个已知属性预测未知属性。

(5)模型构建(M-P神经模型)

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

但是,在MP模型中,权重的值都是预先设置的,因此不能学习,所以才有了后面的BP神经网络和卷积神经网络。

三、感知机

感知机是首个可以学习的人工神经网络。

感知机是二分类的线性分类模型,具有简单而易于实现的优点

旨在求出将训练数据进行线性划分的分离超平面,旨在求出将训练数据进行线性划分的分离超平面

分离超平面在一维空间就是一条线,在二维空间就是一个面。

超平面将数据分成机器学习中正例和负例,类似于下图:

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

所以感知机学习策略就是找到一个将训练集正负实例点完全正确分开的分离超平面。

使用所有误分类的点到超平面的距离来表示损失,该损失表示了模型预测的准确性。

但是感知机只能解决线性可分的二分类问题,甚至连异或都解决不了,如果将计算层增加到两层,计算量则过大,而且没有有效的学习算法。

输入层里的“输入单元”只负责传输数据,不做计算。

输出层里的“输出单元”则需要对前面一层的输入进行计算。 我们把需要计算的层次称之为“计算层”,并把拥有一个计算层的网络称之为“单层神经网络”。

关于单层、多层可以看:https://cloud.tencent.com/developer/news/389738

四、BP神经网络(重点)

当增加一个计算层以后,两层神经网络不仅可以解决异或问题,而且具有非常好的非线性分类效果。

反向传播(Backpropagation,BP)算法,解决了两层神经网络所需要的复杂计算量问题,多了个隐含层用于计算。

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

(1)学习的过程:

神经网络在外界输入样本的刺激下不断改变网络的连接权值,以使网络的输出不断地接近期望的输出。

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

(2)学习的本质:

对各连接权值的动态调整

(3)学习规则:

权值调整规则,即在学习过程中网络中各神经元的连接权变化所依据的一定的调整规则。

基于BP算法的多层前馈网络模型

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

五、深度学习

人脑的深度结构决定了人类认知过程的逐层进行;

深度学习从某种程度上模拟了人类逐层进行、逐步抽象的认知过程。

深层神经网络在神经元数目一定的情况下,相比于传统浅层神经网络来说,具有更强大的学习能力,能够从原始输入中自动提取出具有高度抽象含义的特征。

深度学习别名,叫做非监督的特征学习

深度学习的学习过程可以简要概括为:

(1)逐层无监督地预训练单层学习模块

(2)每次都将上一层的输出结果作为下一层训练模块的输入

(3)训练完所有层后利用有监督的方式微调整个网络。

在无监督预训练阶段,希望输入数据经过整个深层网络后得到的输出结果仍然输入

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

简言之,深度学习多层表示的好处就是能够用较少的参数表征十分复杂的函数。

传统的BP算法仅有几层网络,需要手工指定特征且易出现局部最优问题,,而深度学习引入了概率生成模型,可自动地从训练集提取特征,解决了手工特征考虑不周的问题。

六、卷积网络(重点)

卷积神经网络目前是深度学习领域的热点,尤其是图像识别和模式分类方面

优势在于具有共享权值的网络结构和局部感知(也称为稀疏连接)的特点

能够降低神经网络的运算复杂度,因为减少了权值的数量,并可以直接将图像作为输入进行特征提取,避免了对图像的预处理和显示的特征提取

(1)卷积网络结构

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能 【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

生物神经元所能处理信息的复杂程度被称为神经元的感受野

神经元对于信息位置与方向变化不敏感的特性被称为平移不变性,卷积神经网络正是根据生物神经系统的这些特性而提出的神经网络模型。

卷积神经网络主要结构有:卷积层、池化层、和全连接层。

通过堆叠这些层结构形成一个卷积神经网络将原始图像转化为类别得分

其中卷积层全连接层拥有参数激活层池化层没有参数。

参数更新通过反向传播实现。

(2)卷积层

卷积是一类对矩阵的线性运算方式,包含卷积操作网络层被称为卷积层,其用来对输入图片进行特征提取输出相应图片的特征图

通过卷积层的运算

a.可以将输入信号在某一特征上加强,从而实现特征的提取

b.可以排除干扰因素,从而降低特征的噪声。

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

对两个矩阵进行卷积操作,左边为A,右边为B,矩阵A通常对应样本数据矩阵,矩阵B称之为卷积核。

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

开始滑动:

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

新生成的矩阵称为特征矩阵C。

卷积核每次移动的单位可设定为不同长度,这一长度称之为步长

步长越大,卷积操作所得到的特征矩阵越小

并且数据矩阵边界上的元素对特征矩阵的贡献较小,即丢失部分边界信息,所以为解决这些问题,通常会为原始数据填补上一圈或几圈元素,这一操作称之为填充。

类似下图填充0。

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

 

(3)池化层——pooling层

池化,即下采样,主要作用是通过去除输入的特征图中不重要的信息使特征图变小,进行特征压缩,进一步减少参数量,且同时提取其中的有效信息,一定程度上可以避免过拟合

操作:

池化的具体操作是定义池化窗口的大小

通常情况下,从某个池化窗口内进行采样的规则主要有取最大值、取最小值和取平均值三种。

所对应的池化操作分别称之为最大池化最小池化均值池化

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

 

(3)激活函数

了解即可

【复习】人工智能 第 8 章 人工神经网络及其应用,人工智能复习,人工智能

(4)全连接

卷积层、池化层和激活函数层等操作是将原始数据映射到隐层特征空间。

而全连接层是将学到的“分布式特征表示”映射到样本标记空间,从而最终引用到模型任务(分类、回归)中去。

例如:假设你是一只小蚂蚁,你的任务是找小面包。你的视野还比较窄,只能看到很小一片区域。当你找到一片小面包之后,你不知道你找到的是不是全部的小面包,所以你们全部的蚂蚁开了个会,把所有的小面包都拿出来分

在全连接层中,需要对所有的Feature Map进行扁平化,接一个或者多个全连接层,进行模型学习。

1998年,LeCun提出LeNet,并成功应用于美国手写数字识别。测试误差小于1%。

麻雀虽小,但五脏俱全,卷积层、池化层、全连接层,这些都是现代CNN网络的基本组件。文章来源地址https://www.toymoban.com/news/detail-805092.html

到了这里,关于【复习】人工智能 第 8 章 人工神经网络及其应用的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能神经网络概念股,神经网络芯片概念股

    人工智能包含硬件智能、软件智能和其他。 硬件智能包括:汉王科技、康力电梯、慈星股份、东方网力、高新兴、紫光股份。 软件智能包括:金自天正、科大讯飞。 其他类包括:中科曙光、京山轻机。 谷歌人工智能写作项目:小发猫 1、苏州科达:苏州科达科技股份有限公

    2024年02月07日
    浏览(54)
  • 人工智能之卷积神经网络(CNN)

    前言:今天我们重点探讨一下卷积神经网络(CNN)算法。 _ 20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络CNN(Convolutional Neural Networks)。 1980年,K.Fukushima提

    2024年02月20日
    浏览(52)
  • 神经网络与人工智能:未来的前沿

    人工智能(Artificial Intelligence, AI)是一门研究如何让机器具有智能行为的科学。在过去的几十年里,人工智能研究主要集中在规则-基于的系统、知识-基于的系统以及黑盒模型。然而,在过去的几年里,一种新的人工智能技术已经吸引了广泛的关注:神经网络。神经网络是一种模

    2024年02月21日
    浏览(64)
  • 【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

    Pre-training + Fine-tuning Pre-training(预训练) : 监督逐层训练是多隐层网络训练的有效手段, 每次训练一层隐层结点, 训练时将上一层隐层结点的输出作为输入, 而本层隐结点的输出作为下一层隐结点的输入, 这称为”预训练”. Fine-tuning(微调) : 在预训练全部完成后, 再对整个网络进行

    2024年02月10日
    浏览(47)
  • 人工智能:CNN(卷积神经网络)、RNN(循环神经网络)、DNN(深度神经网络)的知识梳理

    卷积神经网络(CNN),也被称为ConvNets或Convolutional Neural Networks,是一种深度学习神经网络架构,主要用于处理和分析具有网格状结构的数据,特别是图像和视频数据。CNN 在计算机视觉任务中表现出色,因为它们能够有效地捕获和识别图像中的特征,具有平移不变性(transla

    2024年02月05日
    浏览(67)
  • 人工智能卷积神经网络,CNN,梯度下降

    CNN,是针对图像领域提出的神经网络。 得出的结论: 神经元存在局部感受区域,也称 感受野 细胞对角度有选择性 如细胞对垂直光条响应最强 细胞对运动方向有选择性 1.视觉系统是分层,分级处理的。从低到高堆叠使用卷积和池化。 2.神经系统是存在局部感受区域的。 第一

    2024年02月01日
    浏览(57)
  • 【人工智能Ⅰ】实验9:BP神经网络

    实验9 BP神经网络 一、实验目的 1:掌握BP神经网络的原理。 2:了解BP神经网络的结构,以及前向传播和反向传播的过程。 3:学会利用BP神经网络建立训练模型,并对模型进行评估。即学习如何调用Sklearn中的BP神经网络。 4:学会使用BP神经网络做预测。 5:通过截图和模型评

    2024年02月02日
    浏览(67)
  • 深入了解神经网络:构建人工智能的基石

    目录 引言: 第一部分:神经元 - 生物的灵感 第二部分:人工神经元 - 数学的力量 第三部分:神经网络 - 层层堆叠 第四部分:训练神经网络 - 损失函数和反向传播算法 结论: 神经网络是一种受到生物神经系统启发的人工智能模型,它重现了大脑中神经元之间相互连接的方式

    2024年04月15日
    浏览(61)
  • 深度学习2.神经网络、机器学习、人工智能

    目录 深度学习、神经网络、机器学习、人工智能的关系 大白话解释深度学习 传统机器学习 VS 深度学习 深度学习的优缺点 4种典型的深度学习算法 卷积神经网络 – CNN 循环神经网络 – RNN 生成对抗网络 – GANs 深度强化学习 – RL 总结 深度学习 深度学习、机器学习、人工智能

    2024年02月11日
    浏览(69)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包