生成式模型和判别式模型的区别

这篇具有很好参考价值的文章主要介绍了生成式模型和判别式模型的区别。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

机器学习可以分为两大类:生成式模型(Generative Model)、判别式模型(Discriminative Model)。

生成式模型与判别式模型的区别,Machine Learning,算法

 现在有一堆球,颜色信息已知为绿色和黄色两种,有且仅有这两种颜色,这里,球的颜色为y(目标变量),坐标轴上位置为特征X。我们想要知道,如果在坐标轴的某一位置x新放入一个球,这个球会是什么颜色的?

生成式模型与判别式模型的区别,Machine Learning,算法

 1.生成式模型的思想:

生成式模型与判别式模型的区别,Machine Learning,算法

 生成式模型使用的是联合概率P(X,Y),若已知x(球的坐标位置信息),通过计算出P(X,Y)我们就可以知道球的颜色。

生成式模型与判别式模型的区别,Machine Learning,算法

 P(X,Y) = P(Y)*P(X|Y),其中P(Y)可以根据已知球(样本)的颜色分布算出来。

生成式模型与判别式模型的区别,Machine Learning,算法

 根据已知样本数据,生成式模型可以估计出Y的分布,见下图橙色曲线。

生成式模型与判别式模型的区别,Machine Learning,算法

 然后,模型可以算出P(X|Y=green)的值,即当球的颜色是绿色时,球在坐标轴上的各个位置的概率。同理,也可以算出P(X|Y=yellow)。

生成式模型与判别式模型的区别,Machine Learning,算法

 现在,新给一个球,把它放在坐标轴某个位置上,让我们预测,这个球是绿色的概率大?还是黄色的概率大?

生成式模型与判别式模型的区别,Machine Learning,算法

 通过比较联合概率P(X,Y=green)和P(X,Y=yellow)谁更大,我们便能知道新给的球为什么颜色啦~这里,很明显,球对应的分布曲线为y = green的那条,P(X,Y=green)取值是大于0的,而P(X,Y=yellow)取值为0。

生成式模型与判别式模型的区别,Machine Learning,算法

 总结:生成式模型主要通过学习样本,形成多个Y分布,然后计算联合概率P(X,Y),根据P(X,Y)的值预测新的样本属于哪个类。对于二分类问题,如果P(X,Y1)>P(X,Y2),则新样本X判定为Y1。

2.判别式模型的思想:

生成式模型与判别式模型的区别,Machine Learning,算法

 生成式模型与判别式模型的区别,Machine Learning,算法

 文章来源地址https://www.toymoban.com/news/detail-526615.html

条件概率分布P(Y|X)可以理解为:在已知某样本的特征为X的条件下,计算该样本类别为类别Y1、Y2、Y3的概率,并选择概率最大的类别为该样本的预测类别。如,已知一个花的花瓣长度(X1)、花瓣宽度(X2)、花瓣颜色(X3)、气味(X4)等特征值,求这多花为鸢尾花、菊花、玫瑰的概率,可以表示为:

①P(Y = ‘鸢尾花’| X1 = 2,X2 = 0.5,X3 = ‘红色’,X4 = ‘无味’),

②P(Y = ‘菊花’| X1 = 2,X2 = 0.5,X3 = ‘红色’,X4 = ‘无味’)

③P(Y = ‘玫瑰’| X1 = 2,X2 = 0.5,X3 = ‘红色’,X4 = ‘无味’)

计算出来,③的概率值最大,因此将该样本划分为玫瑰。

常见的判别式模型:支持向量机、决策树。

3.生成式模型优缺点

(1)生成式模型的优点:过拟合的几率比较小,尤其是当你采集的数据的分布与真实世界整体数据集的分布是相近的适合,基本上不用担心过拟合问题。

生成式模型与判别式模型的区别,Machine Learning,算法

 生成式模型与判别式模型的区别,Machine Learning,算法

 红色圆圈和蓝色圆圈就是基于样本数据生成的分布函数,如下:

生成式模型与判别式模型的区别,Machine Learning,算法

 下面,新给出一些白色小球,需要我们预测这些白色小球应该属于红色还是蓝色?

生成式模型与判别式模型的区别,Machine Learning,算法

 生成式模型,根据前面得到的y分布,会将白色小球颜色预测为红色,如下:

生成式模型与判别式模型的区别,Machine Learning,算法

 判别式模型根据生成的分类边界(绿色那条线)对小球的颜色进行预测:

生成式模型与判别式模型的区别,Machine Learning,算法

 判别式模型认为,分界线以上的都为蓝色,分界线以下的都为红色,因此,判别式模型分类的准确性高度依赖于分类边界函数的准确性。

生成式模型与判别式模型的区别,Machine Learning,算法

(2)生成式模型的缺点:

因为生成式模型需要生成Y的分布函数,而这个分布函数可能会受到一些异常点的影响变得不那么准确,如下图所示,有两个黄色小球乱入了绿军阵营,有两个绿色小球混进了黄球阵营。

生成式模型与判别式模型的区别,Machine Learning,算法 

此时,我们得到的Y分布函数如下,可以明显看的分布函数与之前发生了较大变化,绿球的分布函数出现了明显的右倾,而黄球的分布函数出现了明显的左倾:

 生成式模型与判别式模型的区别,Machine Learning,算法

 此时,如下图所示又有一个白色小球,已知它在坐标轴上的位置,需要我们判段它是黄色还是绿色。根据联合概率分布的值来看,白色小球对应的两条分布曲线中,绿色线更高,因此我们就会认为小球属于绿色的概率更大。

生成式模型与判别式模型的区别,Machine Learning,算法

 

生成式模型还有两个缺点:

1)为了使生成的分布函数与真实世界中的分布函数尽可能接近,需要大量的数据来生成模型。

2)生成式模型比判别式模型计算量更大。

生成式模型与判别式模型的区别,Machine Learning,算法

4.判别式模型的优缺点

(1)优点:在小数据集上表现效果很好,但是要注意过拟合问题。另外,计算量比生成式模型小。

 生成式模型与判别式模型的区别,Machine Learning,算法

 

到了这里,关于生成式模型和判别式模型的区别的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Azure Machine Learning - 使用自己的数据与 Azure OpenAI 模型对话

    在本文中,可以将自己的数据与 Azure OpenAI 模型配合使用。 对数据使用 Azure OpenAI 模型可以提供功能强大的对话 AI 平台,从而实现更快、更准确的通信。 关注TechLead,分享AI全维度知识。作者拥有10+年互联网服务架构、AI产品研发经验、团队管理经验,同济本复旦硕,复旦机器

    2024年02月04日
    浏览(34)
  • [Machine learning][Part4] 多维矩阵下的梯度下降线性预测模型的实现

    目录 模型初始化信息: 模型实现: 多变量损失函数: 多变量梯度下降实现: 多变量梯度实现: 多变量梯度下降实现: 之前部分实现的梯度下降线性预测模型中的training example只有一个特征属性:房屋面积,这显然是不符合实际情况的,这里增加特征属性的数量再实现一次

    2024年02月06日
    浏览(35)
  • (3)【Python数据分析进阶】Machine-Learning模型与算法应用-线性回归与逻辑回归

    目录 一、Linear Regression线性回归应用 一元一次线性回归公式及解析 应用案例(一)——自定义数据(Custom data) 1、下载安装sklearn库 2、导入库函数 3、加载数据集 4、创建线性回归对象 5、模型训练 6、预测结果 7、绘制模型图像 8、应用模型进行预测 9、评估指标 应用案例(

    2024年01月24日
    浏览(42)
  • Python用GAN生成对抗性神经网络判别模型拟合多维数组、分类识别手写数字图像可视化...

    生成对抗网络(GAN)是一种神经网络,可以生成类似于人类产生的材料,如图像、音乐、语音或文本 ( 点击文末“阅读原文”获取完整 代码数据 )。 相关视频 最近我们被客户要求撰写关于GAN生成对抗性神经网络的研究报告,包括一些图形和统计输出。 近年来,GAN一直是研

    2024年02月09日
    浏览(38)
  • 【Machine Learning】Supervised Learning

    本笔记基于清华大学《机器学习》的课程讲义监督学习相关部分,基本为笔者在考试前一两天所作的Cheat Sheet。内容较多,并不详细,主要作为复习和记忆的资料。 f ( x ) = s i g n ( w ⊤ x + b ) f(x)=sign(w^top x+b) f ( x ) = s i g n ( w ⊤ x + b ) convergence output probability instead of labels. Loss

    2024年01月20日
    浏览(35)
  • 机器学习(Machine Learning)

    bili 吴恩达 机器学习 这是一门让计算机在没有明确编程的情况下学习的科学。 亚瑟·塞缪尔(1959):赋予计算机学习能力而不被明确编程的研究领域。 机器学习作为人工智能的一个子领域。专门研究计算机怎样模拟或实现人类的学习行为,以获取新的知识或技能,重新组织已

    2024年02月09日
    浏览(39)
  • [machine Learning]强化学习

    强化学习和前面提到的几种预测模型都不一样,reinforcement learning更多时候使用在控制一些东西上,在算法的本质上很接近我们曾经学过的DFS求最短路径. 强化学习经常用在一些游戏ai的训练,以及一些比如火星登陆器,月球登陆器等等工程领域,强化学习的内容很简单,本质就是获取

    2024年02月09日
    浏览(33)
  • 【Machine Learning】Other Stuff

    本笔记基于清华大学《机器学习》的课程讲义中有关机器学习的此前未提到的部分,基本为笔者在考试前一两天所作的Cheat Sheet。内容较多,并不详细,主要作为复习和记忆的资料。 max ⁡ δ ∈ Δ L o s s ( f θ ( x + δ ) , y ) max_{deltain Delta}Loss(f_theta(x+delta),y) max δ ∈ Δ ​ L

    2024年01月20日
    浏览(31)
  • [Machine Learning] 损失函数和优化过程

    在统计学习的框架中,我们通常试图找到一个函数或概念,这个函数可以很好地解释或拟合给定的数据。这通常通过最小化某种风险或损失来实现。为了找到一个好的模型,我们尝试在预定义的假设空间 H H H 中找到一个函数,该函数在训练数据上的经验风险 (Empirical Risk) 最小

    2024年02月12日
    浏览(33)
  • [Machine Learning] 领域适应和迁移学习

    在机器学习中,我们的目标是找到一个假设或模型,它可以很好地描述或预测数据。当我们基于训练集训练模型时,我们的目的是让模型能够捕获到数据中的主要模式。然而,为了确保模型不仅仅是对训练数据进行记忆,而是真正理解了数据的结构,我们需要在测试集上评估

    2024年02月08日
    浏览(38)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包