循环神经网络

这篇具有很好参考价值的文章主要介绍了循环神经网络。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、序列模型

1、解决问题:

对于事件有关的序列数据,通过使用历史观测来预测下一个未来观测。

2、自回归模型

第一种策略:可能不需要相当长的序列,只需要满足某个长度为的时间跨度。模型即自回归模型(autoregressive models)。

第二种策略:循环神经网络,人工智能,rnn,人工智能,深度学习

保留一些对过去观测的总结,同时更新预测和总结。模型基于,以及公式更新的模型。由于从未被观测到,故该类模型称为隐变量自回归模型(latent autoregressive models)

3、马尔可夫模型

可以理解为自回归模型的第一种策略

例如:一阶马尔可夫模型即为1表示为:

二、文本预处理

主要流程有以下几个步骤:

2.1 词元化(tokenize)

将文本列表转化为词元(token)列表,这里的词元一般为一个字符串。中文词元一般为一个字或者一个词。

2.2 获取语料(corpus)

将词元列表统计每个唯一词元的出现频率,为该词元分配一个数字索引,并按频率高低排序得到词元和频率的键值对列表。同时,为了将来数据的处理方便,使用词元的索引作为corpus中的“键”。

三、语言模型

3.1 语言模型估计文本序列的联合概率

利用马尔可夫模型,涉及一个、两个和三个变量的概率公式分别被称为 一元语法(unigram)、二元语法(bigram)和三元语法(trigram)模型。使用统计方法时常采用n元语法(长为n的词元序列)。

循环神经网络,人工智能,rnn,人工智能,深度学习

3.2  拉普拉斯平滑

使用统计词元x在整个文本中的出现次数,表示连续单词对的出现次数,

计算为任何以单词x开头的句子的概率,为了防止出现除以0的情况,通常在所有计数添加一个小常量。循环神经网络,人工智能,rnn,人工智能,深度学习

四、循环神经网络

4.1 隐变量模型

        其中是隐状态,也称为隐藏变量,存储到时间步t-1的序列信息。

循环神经网络,人工智能,rnn,人工智能,深度学习

循环层:循环神经网络,人工智能,rnn,人工智能,深度学习

输出层:循环神经网络,人工智能,rnn,人工智能,深度学习

4.2 困惑度(Perplexity)

公式:

困惑度的最好的理解是“下一个词元的实际选择数的调和平均数”,也可直观理解为当我们给定一段非常标准的,高质量的,符合人类自然语言习惯的文档作为测试集时,模型生成这段文本的概率越高,就认为模型的困惑度越小,模型也就越好。

五、现代循环神经网络

5.1 门控循环单元(GRU)

1.问题背景

考虑到早期观测值对预测所有未来观测值具有重要意义,或者一些词元没有相关的观测值,以及序列的各个部分存在逻辑中断的情况,通过使用门控单元来控制信息的流动。这些门控单元允许网络选择性地从输入中选择性地忽略一些信息,或者从过去的状态中选择性地记忆一些信息。这样就可以更好地捕捉时间序列数据中的长期依赖关系,从而提高模型的性能。

2.门控隐状态

  • 重置门和更新门

        重置门控制"可能还想记住“的过去状态的数量;更新门控制新状态有多少个是旧状态的副本。

循环神经网络,人工智能,rnn,人工智能,深度学习

循环神经网络,人工智能,rnn,人工智能,深度学习

  • 候选隐状态

将重置门与常规隐状态更新机制集成,得到在时间步t的候选隐状态。

循环神经网络,人工智能,rnn,人工智能,深度学习

和 的元素相乘可以减少以往状态的影响。 每当重置门中的项接近1时, 我们恢复普通的循环神经网络。 对于重置门中所有接近0的项, 候选隐状态是以作为输入的多层感知机的结果。 因此,任何预先存在的隐状态都会被重置为默认值。

  • 隐状态

将上述候选隐状态结合更新门的效果,进一步确定新的隐状态在多大程度上来自旧的状态和新的候选状态。更新门仅需要在和之间进行按元素的凸组合就可以实现这个目标。 这就得出了门控循环单元的最终更新公式:循环神经网络,人工智能,rnn,人工智能,深度学习

当更新门接近1时,模型就倾向只保留旧状态。这些设计可以帮助我们处理循环神经网络中的梯度消失问题, 并更好地捕获时间步距离很长的序列的依赖关系。 例如,如果整个子序列的所有时间步的更新门都接近于1, 则无论序列的长度如何,在序列起始时间步的旧隐状态都将很容易保留并传递到序列结束。

循环神经网络,人工智能,rnn,人工智能,深度学习

5.2 长短期记忆网络(LSTM)

LSTM的关键是细胞状态,细胞状态类似于传送带,细胞的状态在整个链上运行,只有一些小的线性操作作用其上,信息很容易保持不变的流过整个链。

1.门控记忆元

  • 候选记忆元循环神经网络,人工智能,rnn,人工智能,深度学习
  • 输入门、忘记门和输出门

        输入门:决定在细胞状态中存储什么信息,在LSTM机制中控制采用多少来自候选记忆元的新数据。循环神经网络,人工智能,rnn,人工智能,深度学习

        忘记门:决定从细胞状态中丢弃什么信息,在LSTM机制中控制保留多少过去的记忆元的内容,循环神经网络,人工智能,rnn,人工智能,深度学习

        输出门:决定要输出什么。 此输出将基于细胞状态

  • 记忆元:控制输入和遗忘循环神经网络,人工智能,rnn,人工智能,深度学习
  • 隐状态:
  • 循环神经网络,人工智能,rnn,人工智能,深度学习

        文章来源地址https://www.toymoban.com/news/detail-797249.html

到了这里,关于循环神经网络的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 人工智能-卷积神经网络

            人和动物如何把看到的图像转化为大脑中的一个概念?         我们知道计算机是把图转换为一大堆数字,通过训练可以知道这堆数字代表什么含义。但通过前面学过神经网络模型和梯度下降法的方法训练费时费力,而且一旦图片进行改变如缩放、旋转或其他变换,

    2024年02月16日
    浏览(51)
  • 人工智能神经网络概念股,神经网络芯片概念股

    人工智能包含硬件智能、软件智能和其他。 硬件智能包括:汉王科技、康力电梯、慈星股份、东方网力、高新兴、紫光股份。 软件智能包括:金自天正、科大讯飞。 其他类包括:中科曙光、京山轻机。 谷歌人工智能写作项目:小发猫 1、苏州科达:苏州科达科技股份有限公

    2024年02月07日
    浏览(49)
  • 【复习】人工智能 第 8 章 人工神经网络及其应用

    因为计算牵扯到导数,所以这章难的部分不会考太难。 人工神经网络是对人脑或生物神经网络若干基本特性的抽象和模拟。 深度学习是神经网络的发展。 人工智能曾经历过很长一段时间的停滞不前。 浩瀚的宇宙中,也许只有包含数千忆颗星球的银河系的复杂性能够与大脑相

    2024年01月19日
    浏览(47)
  • 神经网络与人工智能:未来的前沿

    人工智能(Artificial Intelligence, AI)是一门研究如何让机器具有智能行为的科学。在过去的几十年里,人工智能研究主要集中在规则-基于的系统、知识-基于的系统以及黑盒模型。然而,在过去的几年里,一种新的人工智能技术已经吸引了广泛的关注:神经网络。神经网络是一种模

    2024年02月21日
    浏览(58)
  • 人工智能之卷积神经网络(CNN)

    前言:今天我们重点探讨一下卷积神经网络(CNN)算法。 _ 20世纪60年代,Hubel和Wiesel在研究猫脑皮层中用于局部敏感和方向选择的神经元时发现其独特的网络结构可以有效地降低反馈神经网络的复杂性,继而提出了卷积神经网络CNN(Convolutional Neural Networks)。 1980年,K.Fukushima提

    2024年02月20日
    浏览(47)
  • 【人工智能】— 深度神经网络、卷积神经网络(CNN)、多卷积核、全连接、池化

    Pre-training + Fine-tuning Pre-training(预训练) : 监督逐层训练是多隐层网络训练的有效手段, 每次训练一层隐层结点, 训练时将上一层隐层结点的输出作为输入, 而本层隐结点的输出作为下一层隐结点的输入, 这称为”预训练”. Fine-tuning(微调) : 在预训练全部完成后, 再对整个网络进行

    2024年02月10日
    浏览(44)
  • 深入了解神经网络:构建人工智能的基石

    目录 引言: 第一部分:神经元 - 生物的灵感 第二部分:人工神经元 - 数学的力量 第三部分:神经网络 - 层层堆叠 第四部分:训练神经网络 - 损失函数和反向传播算法 结论: 神经网络是一种受到生物神经系统启发的人工智能模型,它重现了大脑中神经元之间相互连接的方式

    2024年04月15日
    浏览(57)
  • 人工智能卷积神经网络,CNN,梯度下降

    CNN,是针对图像领域提出的神经网络。 得出的结论: 神经元存在局部感受区域,也称 感受野 细胞对角度有选择性 如细胞对垂直光条响应最强 细胞对运动方向有选择性 1.视觉系统是分层,分级处理的。从低到高堆叠使用卷积和池化。 2.神经系统是存在局部感受区域的。 第一

    2024年02月01日
    浏览(54)
  • 【人工智能Ⅰ】实验9:BP神经网络

    实验9 BP神经网络 一、实验目的 1:掌握BP神经网络的原理。 2:了解BP神经网络的结构,以及前向传播和反向传播的过程。 3:学会利用BP神经网络建立训练模型,并对模型进行评估。即学习如何调用Sklearn中的BP神经网络。 4:学会使用BP神经网络做预测。 5:通过截图和模型评

    2024年02月02日
    浏览(64)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包