【基础知识-概率论】似然、似然函数、极大似然估计(最大似然估计)

这篇具有很好参考价值的文章主要介绍了【基础知识-概率论】似然、似然函数、极大似然估计(最大似然估计)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

似然(likelihood)和似然函数(likelihood Function)

概率(Probability)

在已知一些参数的情况下,预测接下来结果的可能性

结果产生之前,通过环境中的参数,预测事件发生的概率

似然值,Soft-Sensor,概率论,python,机器学习

例:抛硬币

  1. 假定硬币的材质均匀,其抛出落地结果为正面和反面的概率都是0.5
  2. 这个概率在结果发生前才有意义,在发生后,抛硬币的结果就确定了

似然

跟概率相反,用于在已知某些观测所得到的结果时,对有关事物的性质的参数进行估值

基于已经确定的结果,来推测产生这个结果的可能环境,或环境中的某些参数的过程

似然值,Soft-Sensor,概率论,python,机器学习

例:抛硬币

  1. 随即抛出硬币1w次;8k次人像在上,2k次荷花在上
  2. 推测这个硬币:得到人像的概率为0.8;得到荷花的概率为0.2

概率VS似然

似然值,Soft-Sensor,概率论,python,机器学习

  1. 在条件θ的情况下,事件x发生的概率

概率是事件x的函数

P ( x ∣ θ ) P\left( x|\theta \right) P(xθ)

  1. 在条件事件x的情况下,去推断θ的可能性

似然是参数θ的函数

L ( θ ∣ x ) L\left( \theta \right|x) L(θx)

  1. 数值上,两者有如下关系

P ( x ∣ θ ) = L ( θ ∣ x ) P\left( x|\theta \right) = L\left( \theta \right|x) P(xθ)=L(θx)

  • 似然和概率表示不同的意义,似然不一定介于0-1,似然值的总和也不一定是1
  • 单独的似然值没有意义,似然值L是用来对比在各种θi下,哪种θi更接近与引发事件x的真实的“θ”

似然函数

L ( θ ∣ x ) L\left( \theta \right|x) L(θx)

似然函数除了可以用于计算似然之外,还可以了解当θ变化的时候,似然怎么变化,用来确定最大可能性的θ值会是多少

极大似然估计(最大似然估计)(Maximum Likelihood Estimate)

利用已知的样本标记结果,反推最具有可能或者最大概率导致这些样本结果出现的模型参数。

是一种已知观察数据,来推断模型参数的过程

似然值,Soft-Sensor,概率论,python,机器学习

已知事件x,推断当θ为什么值的时候,发生事件x的概率最大,就是极大似然估计

例:抛硬币

  1. 10次实验,抛硬币,结果如下,可得似然函数为:

似然值,Soft-Sensor,概率论,python,机器学习

  1. 根据似然函数,可知当θ=0.7的时候,本次实验有最大的发生概率

似然值,Soft-Sensor,概率论,python,机器学习

  1. θ=0.7可能并不是该硬币的真实θ,但是在该实验下,θ=0.7是最大似然估计的结果
  2. 若想要得到更精确的θ值,可以增加试验次数

机器学习

极大似然估计的过程对应某些机器学习算法的参数估计过程, 例如变分自编码器VAE文章来源地址https://www.toymoban.com/news/detail-817398.html

到了这里,关于【基础知识-概率论】似然、似然函数、极大似然估计(最大似然估计)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习-必备的数学知识-概率论3

    概率论 我们将接着上一篇文章继续讲解。 条件概率 大家还记得上一篇文章的提到的联合概率分布吗?定义在一组变量的联合概率分布的子集上的概率分布被称为边缘概率分布(marginal probability distribution)。 对于离散型随机变量x和y,如果我们有 P ( x , y ) P(x,y) P ( x , y ) ,则可

    2024年02月03日
    浏览(37)
  • 深度学习-必备的数学知识-概率论4

    概率论 我们将接着上一篇文章继续讲解。 在接下来的文章中,将会把随机变量本身写作大写字母,随机变量的值写作小写字母。 期望、方差和协方差 期望(expectation)是指随机变量X所有可能取值的平均或期望值。期望可以看作随机变量的中心或平均位置。换句话说期望是随

    2024年02月04日
    浏览(35)
  • 【概率论】多维随机变量函数的分布(三)

    设随机变量X,Y相互独立同分布,均服从(0,1)上的均匀分布,则下列随机变量中仍然服从相应区间或区域上均匀分布的是()。 A. X 2 X^2 X

    2024年02月13日
    浏览(31)
  • 【状态估计】概率论基础

    《机器人学的状态估计》是入行SLAM的经典书籍之一,其中有大量的公式相关的内容,看起来还是比较艰涩的。最近重新读一遍,顺便将其中的一些内容记录下来,方便以后回看。 定义 定义 x x x 为区间 [ a . b ] [a.b] [ a . b ] 上的随机变量,服从某个 概率密度函数 p ( x ) p(x) p

    2024年04月11日
    浏览(41)
  • 概率论基础

    二维随机变量 二维随机变量是指一个随机实验产生的结果可以用一个有序对来描述的随机变量。它在数学上表示为(X, Y),其中X和Y是两个单独的随机变量。 二维随机变量的取值可以是有限的、可数的或者连续的,取决于具体的情况。对于有限或可数的二维随机变量,可以通过

    2024年02月03日
    浏览(31)
  • 【概率论与数理统计】二维随机变量:分布函数(联合分布函数、边缘分布函数)、联合概率密度、边缘概率密度、联合分布律、边缘分布律

    直观理解: 联合概率密度 草帽/山峰 边缘概率密度 切一刀的山峰切面 联合分布函数 切两刀山峰体 边缘分布函数 切一刀山峰体 联合分布律 和 边缘分布律 针对离散型随机变量 二维随机变量  联合分布函数(切两刀山峰体) 边缘分布函数 (切一刀山峰体)    【连续型随

    2024年02月05日
    浏览(24)
  • 概率论与数理统计(3)--指数分布函数及其期望、方差

    设随机变量X具有如下形式的密度函数,那么则称X服从参数为θ的指数分布, 记为X~EXP(θ).  指数分布的分布函数为: ①数学期望 如果X 服从参数为λ (λ0)的指数分布,那么指数分布X~EXP(θ)的数学期望: λ  ②方差 设X 服从参数为λ (λ0)的指数分布, 指数分布X~EXP(θ)的方差:λ^2。

    2024年02月11日
    浏览(30)
  • 【概率论与数理统计】第三章知识点复习与习题

    我们研究一个多维的东西,往往先从较低的维度比如说二维作为主要的研究对象,一个是因为维度低会比较简单,易于理解;另一个则是考试中低维的问题往往更加常见 定义上其实很简单,其实就是之前的一维随机变量变两个,然后用向量来表示,比如 (X,Y) 当然和一维的情

    2024年02月05日
    浏览(25)
  • 【概率论与数理统计】第四章知识点复习与习题

    定义 数学期望其实很好理解,就是均值,当然这里并不是直接计算样本的均值,而是考虑到样本对应的概率。我们分离散和连续两类来讨论数学期望。 离散型 对随机变量X的分布律为 若级数 绝对收敛,则称该级数为X的数学期望,记为E(X)。即 连续型 当我们把上面的求和换成

    2024年02月09日
    浏览(37)
  • 每周学点数学 3:概率论基础2

    独立性与相关性是在数据分析中非常重要的两个概念,它们之间存在一定的联系,但也有明显的区别。 独立性(Independence):独立性是指两个或多个变量之间不存在线性关系,它们之间的变化互不依赖。换言之,一个变量的变化不会引起另一个变量的变化。 相关性(Correla

    2024年02月14日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包