生成式模型和判别式模型区别

这篇具有很好参考价值的文章主要介绍了生成式模型和判别式模型区别。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

目录

1.概念

2.定义​

3.举例​

(1)例子 A​

(2)例子 B​

4.特点

5.优缺点

6.代表算法


1.概念

        首先我们需要明确,两种不同的模型都用于监督学习任务中。监督学习的任务就是从数据中学习一个模型,并用基于这个模型对给定的输入预测相应的输出。这种模型的一般形式为决策函数或者条件概率分布 。

我们先用一张图来初步感受一下,等看完文章后再回来看一遍会更直观:

生成式模型和判别式模型区别,统计学习方法,机器学习,深度学习,人工智能,算法,学习,神经网络,生成式模型

2.定义​

生成式模型先对数据的联合分布进行建模,然后再通过贝叶斯公式计算样本属于各类别的后验概率 。

判别式模型直接进行条件概率建模,由数据直接学习决策函数 或条件概率分布作为预测的模型。判别方法不关心背后的数据分布,关心的是对于给定的输入,应该预测什么样的输出。

用一句话总结就是生成模型估计的是联合概率分布判别式模型估计的是条件概率分布

3.举例​

可能经过上面的表述仍然不能够直观的理解两个模型的差异,我这里举两个例子:

(1)例子 A​

两种模型来如何确定一只羊是山羊还是绵羊?

生成式模型:首先根据山羊的数据和绵羊的数据分别学习出山羊的特征  和绵羊的特征 ,然后从待识别的羊中提取特征 x,将这些特征分别放到山羊模型和绵羊模型中并得到条件概率  和  ,如果 >   ,那么我就认为这只羊属于山羊,否则为绵羊。

判别式模型:直接从山羊和绵羊的数据中提取特征 x 并学习得到模型,然后从待识别的羊中提取特征 x,然后带入到模型中以判断这只羊是绵羊和山羊概率(比如 LR 中,结果大于 0.5 为正例,小于 0.5 为反例)。

我们可以看到,生成式模型强调数据本身特点,判别式模型强调数据边界。在分类的过程中,生成式模型对每个结果都要亲自试一试,遍历完一遍后取概率最大的结果;而判别式模型直接通过模型得到结果。

(2)例子 B​

维基百科中有这样的一个例子:

对于给定数据集生成式模型和判别式模型区别,统计学习方法,机器学习,深度学习,人工智能,算法,学习,神经网络,生成式模型 。

生成式模型  :

y=0 y=1

x=1

1/6

2/6

x=2

2/6

1/6

如果现在有一个x=2 ,那我们可以得到:

生成式模型和判别式模型区别,统计学习方法,机器学习,深度学习,人工智能,算法,学习,神经网络,生成式模型

所以我们把 x=2 判别为类别 0。

判别式模型 

y=0 y=1

x=1

1/3

2/3

x=2

2/3

1/3

对于给定的 x=2,我们直接可以得到  和  的值。

4.特点

生成式模型的特点在于,其可以从统计的角度表示数据的分布情况,能反映同类数据本身的相似度,不关心各类的边界在哪;

判别式模型直接学习的是条件概率分布,所以其不能反映训练数据本身的特性,其目的在于寻找不同类别之间的最优分界面,反映异类数据之间的差异。

由生成模型可以得到判别模型,但由判别模型得不到生成模型。

当存在隐变量(当我们找不到引起某一现象的原因的时候,我们就把这个在起作用但是无法确定的因素,叫“隐变量”) 时,仍可以利用生成方法学习,此时判别方法不能用。因为生成式模型同时对 x 和 y 建立概率模型,所以如果 x 中有出现没有观察到的量或者只有部分 y 的时候,就可以很自然地使用 EM 算法 来进行处理。极端情况下,在完全没有 y 信息的情况下,GM 仍然是可以工作的——无监督学习可以看成是 GM 的一种。

5.优缺点

生成式模型 

优点​

由于统计了数据的分布情况,所以其实际带的信息要比判别模型丰富,对于研究单类问题来说也比判别模型灵活性强;
模型可以通过增量学习得到(增量学习是指一个学习系统能不断地从新样本中学习新的知识,并能保存大部分以前已经学习到的知识。);
收敛速度更快,当样本容量增加的时,生成模型可以更快的收敛于真实模型;
隐变量存在时,也可以使用。
缺点​

学习和计算过程比较复杂,由于学习了更多的样本信息,所以计算量大,如果我们只是做分类,就浪费了这部分的计算量;
准确率较差;
往往需要对特征进行假设,比如朴素贝叶斯中需要假设特征间独立同分布,所以如果所选特征不满足这个条件,将极大影响生成式模型的性能。


判别式模型 

优点​

由于关注的是数据的边界,所以能清晰的分辨出多类或某一类与其他类之间的差异,所以准确率相对较高;
计算量较小,需要的样本数量也较小;
缺点​

不能反映训练数据本身的特性;
收敛速度较慢。

6.代表算法

生成式模型:朴素贝叶斯、贝叶斯网络、隐马尔可夫模型、隐马尔可夫模型;

判别式模型:k 近邻法、决策树、逻辑斯谛回归模型、最大熵模型、支持向量机、条件随机场。

参考​

​ ​https://www.zhihu.com/question/20446337​​

生成式模型 vs 判别式模型
 ​http://freemind.pluskid.org/machine-learning/discriminative-modeling-vs-generative-modeling/​
 文章来源地址https://www.toymoban.com/news/detail-732029.html

到了这里,关于生成式模型和判别式模型区别的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【多元统计分析】判别分析——SPSS上机实验

    参考文献:何晓群.《多元统计分析》中国人民大学出版社第五版(82-105) 公众号中还有更多的理论知识、个人笔记整理和资源放送,欢迎阅读哦~ 通过判别分析,对数据中的变量的各类特征值判别确定其类型属性。 为研究某地区人口死亡状况,已按某种方法将15个一直样品分为

    2024年02月04日
    浏览(40)
  • 基于spss的多元统计分析 之 聚类分析+判别分析(3/8)

    实验目的: 1. 掌握多元数据的相关性、正态性、可视化表征的基本原理; 2.熟悉掌握SPSS软件/R软件的基本用法和基本操作; 3.利用实验指导中及软件中内置的实例数据,上机熟悉相关性检验+正态性检验+可视化数据方法。 实验内容: 1.实验数据为女性汗液+ 32名学生核心课

    2024年02月09日
    浏览(37)
  • 统计学习方法 决策树

    阅读李航的《统计学习方法》时,关于决策树的笔记。 决策树 :树状的模型,其中内部节点表示一个特征或属性,叶子节点表示一个类。使用决策树分类时: 从根结点出发,对实例的某一特征进行测试,根据测试结果分配到某一叶节点中; 重复,直到到达叶子节点; 决策

    2024年02月06日
    浏览(38)
  • SVM——《统计学习方法第七章》

    在第二章中我们学过感知机,它是最小化所有误分类点到超平面的距离之和, M 为误分类点的集合,得到的分离超平面是不唯一的。 min ⁡ ω , b [ − ∑ x i ∈ M y i ( ω ⋅ x i + b ) ] min_{omega,b}[-sum_{x_i in M}y_i (omegacdot x_i+b)] ω , b min ​ [ − x i ​ ∈ M ∑ ​ y i ​ ( ω ⋅ x i ​

    2024年02月08日
    浏览(51)
  • 统计学习方法第五章——决策树

    decision tree决策树是一种分类和回归的方法,本章只考虑在分类领域的使用。决策树使用了归纳法划分特征空间,以此来达到分类的目的。决策树不同于KNN中的kd树,它是多叉树,不是二叉树。决策树是一种概率模型。 决策树采用了if-then规则,路径上的内部节点是对特征的分

    2024年02月05日
    浏览(37)
  • 学习笔记:统计建模方法的比较分析

    本文介绍了隐马尔可夫模型 (HMM)、最大熵马尔可夫模型 (MEMM) 和条件随机场 (CRF) 的比较分析。 HMM、MEMM 和 CRF 是三种流行的统计建模方法,通常应用于模式识别和机器学习问题。 让我们更详细地探讨每种方法。 “隐藏”一词象征着只有系统发布的符号是可观察的,而用户无法

    2023年04月08日
    浏览(52)
  • 《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第 2章感知机

    《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第 2章感知机 《统计学习方法:李航》笔记 从原理到实现(基于python)-- 第1章 统计学习方法概论 我算是有点基础的(有过深度学习和机器学的项目经验),但也是半路出家,无论是学Python还是深度学习,都是从问

    2024年01月25日
    浏览(49)
  • (统计学习方法|李航)第五章决策树——四五节:决策树的剪枝,CART算法

    目录 一,决策数的剪枝 二,CART算法 1.CART生成 (1)回归树的生成 (2)分类树的生成          2.CART剪枝 (1)剪枝,形成一个子树序列 (2)在剪枝得到的子树序列T0,T1-----,Tn中通过交叉验证选取最优子树Ta   好的决策树不高不宽     柳建男的”后剪枝“挥手创作   如果

    2024年02月14日
    浏览(46)
  • (具体解决方案)训练GAN深度学习的时候出现生成器loss一直上升但判别器loss趋于0

    今天小陶在训练CGAN的时候出现了绷不住的情况,那就是G_loss(生成器的loss值)一路狂飙,一直上升到了6才逐渐平稳。而D_loss(判别器的loss值)却越来越小,具体的情况就看下面的图片吧。其实这在GAN训练里是非常容易遇到的问题,所以不用慌,是有解决的办法的。小陶就通

    2024年02月14日
    浏览(48)
  • 【机器学习 | 朴素贝叶斯】朴素贝叶斯算法:概率统计方法之王,简单有效的数据分类利器

    🤵‍♂️ 个人主页: @AI_magician 📡主页地址: 作者简介:CSDN内容合伙人,全栈领域优质创作者。 👨‍💻景愿:旨在于能和更多的热爱计算机的伙伴一起成长!!🐱‍🏍 🙋‍♂️声明:本人目前大学就读于大二,研究兴趣方向人工智能硬件(虽然硬件还没开始玩,但一直

    2024年02月15日
    浏览(56)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包