李宏毅机器学习笔记:结构学习,HMM,CRF

这篇具有很好参考价值的文章主要介绍了李宏毅机器学习笔记:结构学习,HMM,CRF。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、隐马尔可夫模型HMM

1.1Sequence2Sequence

什么是Seq2Seq问题呢?简单来说,就是输入是一个序列,输出也是一个序列。输入和输出的序列可以相等,也可以不相等。在本文中,可以先假设输入输出序列相等。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习

1.2 HMM

这里用了一个通俗易懂的例子来解释HMM模型,POS tagging,词性标注。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
PN表示专有名词Proper Noun
V表示动词
D 定冠词
N名词

通常情况下,我们要生成1个句子,可以分为2个步骤。
一、根据语法设计好一个词性序列
二、根据字典中的词汇填充生成一个句子。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
举例子来说,
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
图片表示,开始start后面接的词为PN的概率是0.4,接动词V的概率是0.1,接定冠词D的概率是0.5。依次类推。这样,第一步构思的词性顺序为 PN V D N的概率则为0.4x0.8x0.25x0.95x0.1。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
类似地,在词性结构已经是PN V D N的第一步的基础上,生成的句子为 John saw the saw的概率为0.2x0.17x0.63x0.17。

那怎么计算第2步的概率呢?
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
计算方法如上图所示,其中y表示词性,x表示单词。我们是根据词汇x来求目标词性y,目标词性y是隐含的变量,这也是HMM中隐的由来。
现在问题只在于说如何计算。其实很简单,可以直接根据训练数据将这些概率统计出来。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
如上图所示,词性 s ′ s' s接在词性 s s s后面的概率为训练数据中词性s后面出现词性 s ′ s' s的次数除以词性s出现的总次数。
词性s的单词为特定单词t的概率则为训练数据中所有单词为t且词性属于s的次数除以词性s出现的总次数。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
通过对训练数据中的相关词汇和词性进行统计,便可计算出相应的概率。

1.3 Viterbi算法

李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
上述可知,假设有 ∣ S ∣ |S| S个词性,序列长度为L。那么该序列的词性可能存在 ∣ S ∣ L |S|^{L} SL种答案。计算复杂度很高。而Vertibi算法则是专门解决该问题而衍生出的优化算法。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
概括来说,HMM可分为上述3个步骤。

1.3 HMM模型的缺点

李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
举个例子来说,假如训练数据中, y l − 1 y_{l-1} yl1为名词N,后面接动词V的概率为0.9,接定冠词D的概率为0.1。而在给定词性为动词V的条件下,该单词为单词a的概率为0.5,为单词c的概率为0.5。在给定词性为D的条件下,为单词a的概率为1。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
现在我们假设出现了该种场景,第一个单词为N,后一个单词为a,求后一个单词的词性预测。
这个例子比较简单,可以直接穷举出来。假如该单词词性 y l = D y_{l}=D yl=D,那么概率p=0.11=0.1。
假如该单词词性 y l = V y_{l}=V yl=V,p=0.9
0.5=0.45。因此,答案应该为V。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
这个答案V看上去是没有问题的,但是假设我们的训练数据是上述这种情况,完全满足Transition probability 和Emission probability情况。我们预测的最佳答案是N-V-a。
但是,我们的训练数据中原本就出现了N-D-a这种样本。HMM模型所给的答案是训练数据中从未见过的情况,因为其概率最大。这种情况我们认为HMM预测的更好还是原数据更好呢?
答案显然是原数据中出现的样本最好。由此引申出HMM模型的缺陷问题:可能会预测出训练数据中从未出现过的结果。在训练数据为小样本数据集时其实时有一定好处的,因为这样泛化能力更强。
要想解决HMM的缺陷,有2种解决思路,一是使用更为复杂的模型,而是使用条件随机场CRF。

2、CRF

2.1 CRF模型

李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
我们首先给出CRF的模型,先不纠结如何来的,后续会一一证明。
P ( y ∣ x ) = P ( x , y ) ∑ y ′ P ( x , y ′ ) P(y|x)=\frac{P(x,y)}{\sum_{y'}P(x,y')} P(yx)=yP(x,y)P(x,y)
可根据前面的HMM部分推到得出。字面意思也很好理解,词性为y,词汇为x的组合概率除以词汇为x,词性为所有可能的y的概率之和,便可得到在给定词汇x的情况下词性为y的概率。
CRF从模型上咋一看,和HMM简直时两个东西。但实际上,只是表达形式不同,建模的思想还是很接近的。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
上面公式为HMM模型种的概率推导,取log后可将相乘的形式方便地转化为相加的形式。我们将上面公式种相加的4项一一拆解开。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
首先看最后一项,s代表词性,t代表词汇。公式所想表达的含义为,在一个序列长度为l的句子中,在给定每个词性为y的情况下词汇为x的的概率取对数之和等于给定词性s情况下取词汇t的概率对数之和乘以出现的次数。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
上面的公式还是很复杂的,必须结合这个例子来看下。结合例子就很容易看懂上述的公式。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
依此类推,另外3个表达式可以同样进行表示。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
最后,便从这里推导出了CRF的模型表达式。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
这里注意,我们在训练时并不会对w进行范围限制。log函数取值范围为负无穷到正无穷。我们这里CRF模型最后用的并不是等号,而是正比符号。
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
我们可以一步一步分解一下 ϕ ( x , y ) \phi(x,y) ϕ(x,y),看下其中的结构组成到底时什么。可分解为2部分,第一部分时关于tags和words之间的关系。第二部分是关于tags之间的关系。
第一部分对应的为 N s , t ( x , y ) N_{s,t}(x,y) Ns,t(x,y)
李宏毅机器学习笔记:结构学习,HMM,CRF,机器学习,机器学习,笔记,学习
第二部分则对应于 N s t a r t , s ( x , y ) , N s , s ′ ( x , y ) , N s , e n d ( x , y ) N_{start,s}(x,y),N_{s,s'}(x,y),N_{s,end}(x,y) Nstart,s(x,y),Ns,s(x,y),Ns,end(x,y)文章来源地址https://www.toymoban.com/news/detail-665331.html

2.2 CRF模型训练

到了这里,关于李宏毅机器学习笔记:结构学习,HMM,CRF的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 李宏毅机器学习课程笔记(更新ing)

    basic Why deep not fat model? 当需要拟合的pattern复杂度很高时,deep model需要的参数量远低于fat model(指数组合与线性组合)。 另外当pattern复杂且有规律时(语音、图像、NLP),deep model通常表现好于fat model。 CNN 为什么AlphaGo可以用CNN?棋盘抽象成图片时需要注意什么? 首先图片有

    2024年02月10日
    浏览(29)
  • 机器学习笔记:李宏毅 stable diffusion

     ①:文字变成向量  ②:喂入噪声+文字encoder,产生中间产物  ③:decoder 还原图片  这张图越往右下表示效果越好,可以看到text encoder尺寸越大,对后续生成图片的增益越多  现有一个训练好的CNN 模型,可以生成真实影像和生成图像的representation 这两组表征的分布越近,效

    2024年02月13日
    浏览(42)
  • 机器学习笔记:李宏毅chatgpt 大模型 & 大资料

    Emergent Abilities of Large Language Models,Transactions on Machine Learning Research 2022 模型的效果不是随着模型参数量变多而慢慢变好,而是在某一个瞬间,模型“顿悟”了 这边举的一个例子是,比如让模型回答鸡兔同笼问题  一开始小模型什么都学不到,故而效果不好  随着模型参数量增

    2024年02月13日
    浏览(42)
  • 李宏毅机器学习笔记:RNN循环神经网络

    例如情景补充的情况,根据词汇预测该词汇所属的类别。这个时候的 Taipi 则属于目的地。但是,在订票系统中, Taipi 也可能会属于出发地。到底属于目的地,还是出发地,如果不结合上下文,则很难做出判断。因此,使用传统的深度神经网络解决不了问题,必须引入RNN。 如

    2024年02月10日
    浏览(39)
  • 机器学习和深度学习-- 李宏毅(笔记与个人理解)Day10

    这节课主要介绍机器学习和深度学习任务中常见的问题分类以及相应的解决之道 这张图总体的概述了一个任务中的大小坎坷,不认得英文? 去Google吧~ training Loss 不够的case Loss on Testing data over fitting 为什么over fitting 留到下下周哦~~ 期待 solve CNN卷积神经网络 Bias-Conplexiy Trade

    2024年04月17日
    浏览(29)
  • 机器学习和深度学习--李宏毅(笔记与个人理解)Day9

    中间打了一天的gta5,图书馆闭馆正好+npy 不舒服那天+天气不好,哈哈哈哈哈总之各种理由吧,导致昨天没弄起来,今天补更! 这里重点注意一下, 这个 output值是概率哈,也就是说式子整体表示的含义是 x 属于c1的概率是多大 这个老师真的是讲到我的心坎子里区了,这个lo

    2024年04月17日
    浏览(33)
  • 机器学习笔记:李宏毅ChatGPT:生成式学习的两种策略

    “各个击破”——一个一个生成出来 一步到位,全部生成出来  两种策略 策略1:始终生成固定长度(比如100),如果出现end,那么end后面的部分直接扔掉 策略2:首先输出一个数字n,表示之后我们要输出多长,然后输出n长度的句子    一般文字相关的任务考虑“各个击破”

    2024年02月13日
    浏览(30)
  • 机器学习笔记:李宏毅ChatGPT Finetune VS Prompt

    2.1.1 成为专才的好处  Is ChatGPT A Good Translator? A Preliminary Study 2023 Arxiv 箭头方向指的是从哪个方向往哪个方向翻译 表格里面的数值越大表示翻译的越好 可以发现专门做翻译的工作会比ChatGPT好一些 How Good Are GPT Models at  Machine Translation? A  Comprehensive Evaluation 同样地,专项翻译任

    2024年02月14日
    浏览(30)
  • 李宏毅2023春季机器学习笔记 - 01生成AI(ChatGPT)

    预设的知识储备要求:数学(微积分、线性代数、机率);编程能力(读写python) 这门课专注在 深度学习领域deep learning, 事实上深度学习在今天的整个机器学习(ML)的领域使用非常广泛,可以说是最受重视的一项ML技术。 这门课可以作为你的机器学习的第一堂课,修完后

    2023年04月19日
    浏览(43)
  • 【李宏毅机器学习·学习笔记】Tips for Training: Adaptive Learning Rate

    本节课主要介绍了Adaptive Learning Rate的基本思想和方法。通过使用Adaptive Learning Rate的策略,在训练深度神经网络时程序能实现在不同参数、不同iteration中,学习率不同。 本节课涉及到的 算法或策略 有:Adgrad、RMSProp、Adam、Learning Rate Decay、Warm Up。 本节课 参考的资料 有: MI

    2024年02月14日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包