条件概率、贝叶斯公式理解

这篇具有很好参考价值的文章主要介绍了条件概率、贝叶斯公式理解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1、条件概率

条件概率是指事件A在事件B发生的条件下发生的概率,记作:P(A|B)。如下图所示:整个样本空间为Ω,事件A和事件B包含在Ω中。事件A和事件B同时发生的情况,即A、B交集记作AB。事件A的概率记作:P(A)=A/Ω,事件B的概率记作P(B)=B/Ω。AB交集部分的概率记作:P(AB)=AB/Ω。

由条件概率的定义可知,在B发生的条件下将样本空间限定在下图中B的空间内,则P(A|B) = AB/B。同理可得P(B|A) = AB/A。

条件概率,概率论

图1

 由上图可得条件概率公式推导如下:

条件概率,概率论

 2、联合概率

事件A和事件B同时发生的概率P(AB) = AB/Ω,也称作乘法公式。公式推导如下:

条件概率,概率论

 2、全概率

如下图所示:事件Bi ∈ {B1、B2、B3、B4}相互独立,两两的交集为空。B1∪B2∪B3∪B4 = Ω。事件A在事件Bi中各占一部分。事件A与Bi同时发生记作ABi,同时发生的概率P(ABi) = ABi / Ω。

事件Bi发生条件下,事件A发生的概率P(A|Bi) = ABi / Bi。

条件概率,概率论

图2

由上图推导全概率公式如下:

条件概率,概率论 2、贝叶斯公式

 图片见全概率,图 2。贝叶斯公式解决的问题是在事件A发生的条件下求Bi的概率。贝叶斯公式和全概率公式是一个相反的过程。全概率公式是已知原因集合Bi,求结果A的概率。贝叶斯公式是已知结果的集合在A中,反推事件原因Bi的概率。公式推导如下:

条件概率,概率论

 文章来源地址https://www.toymoban.com/news/detail-516726.html

 

 

到了这里,关于条件概率、贝叶斯公式理解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 条件概率、贝叶斯公式理解

    1、 条件概率 条件概率是指事件A在事件B发生的条件下发生的概率, 记作:P(A|B)。如下图所示:整个样本空间为Ω,事件A和事件B包含在Ω中。事件A和事件B同时发生的情况,即A、B交集记作AB。事件A的概率记作:P(A)=A/Ω,事件B的概率记作P(B)=B/Ω。AB交集部分的概率记作:P(A

    2024年02月11日
    浏览(57)
  • 分享本周所学——概率论:贝叶斯更新详解

            大家好,欢迎来到《分享本周所学》第六期。本人是一名人工智能初学者,因为马上要上大学了嘛,就想着提前稍微预习一下大一课程。我预习的这门课叫Mathematical Techniques for Computer Science,是一门针对计算机的数学课,所以这里面有很多内容会面向数学在计算机

    2024年01月17日
    浏览(48)
  • 概率论公式

    方差D(x+y)=D(x)+D(y)+2Cov(x,y)=D(x)+D(y) 协方差Cov(x,y)=E(xy)-E(x)E(y),相互独立的随机变量x,y满足E(xy)=E(x)E(y) 所以随机变量xy相互对立 时,D(x+y)=D(x)+D(y) 转自:多个随机变量运算后的均值与方差计算_爱吃酸菜鱼的汉堡的博客-CSDN博客_多个随机变量的和的方差  

    2024年02月12日
    浏览(33)
  • 第四章 基于概率论的分类方法:朴素贝叶斯

    朴素贝叶斯 优点:在数据较少的情况下仍然有效,可以处理多类别问题。 缺点:对于输⼊数据的准备⽅式较为敏感。 适⽤数据类型:标称型数据。 假设类别为 c 1 , c 2 c_1,c_2 c 1 ​ , c 2 ​ : 如果 p 1 ( x , y ) p 2 ( x , y ) p1(x,y) p2(x,y) p 1 ( x , y ) p 2 ( x , y ) ,那么类别为 c 1 c_1 c

    2024年02月13日
    浏览(42)
  • 【机器学习实战】-基于概率论的分类方法:朴素贝叶斯

    【机器学习实战】读书笔记 **朴素贝叶斯:**称为“ 朴素 ”的原因,整个形式化过程只做最原始、最简单的假设,特征之间没有关联,是统计意义上的独立。 **优点:**在数据较少的情况下仍然有效,可以处理多类别问题。 **缺点:**对于输入数据的准备方式较为敏感。 **适

    2024年03月25日
    浏览(50)
  • 【概率论】条件概率与独立性题目

    已知随机事件A与B满足条件:0P(A)1,0P(B)1。则事件A,B相互独立的充要条件是( C )。 A. P ( B ∣ A ) + P ( B ∣ A ˉ ) = 1 P(B|A)+P(B|bar{A})=1 P ( B ∣ A ) + P ( B ∣ A ˉ ) = 1 B. P ( B ∣ A ) + P ( B ˉ ∣ A ) = 1 P(B|A)+P(bar{B}|A)=1 P ( B ∣ A ) + P ( B ˉ ∣ A ) = 1 C. P ( B ∣ A ) + P ( A ˉ ∣ B ˉ ) = 1 P(B|A)

    2024年02月11日
    浏览(36)
  • 概率论与数理统计常用公式大全

    A − B = A − A B = A B ‾ B = A ‾    ⟺    A B = ∅    且 A ∪ B = Ω ( 1 ) 吸 收 律    若 A ⊂ B , 则 A ∪ B = B , A B = A ( 2 ) 交 换 律    A ∪ B = B ∪ A , A B = B A ( 3 ) 结 合 律    ( A ∪ B ) ∪ C = A ∪ ( B ∪ C ) , ( A B ) C = A ( B C ) ( 4 ) 分 配 律    A ( B ∪ C ) = A B ∪ A C , A ∪ B C = ( A ∪

    2024年02月11日
    浏览(47)
  • 概率论与机器学习:从朴素贝叶斯到深度学习

    概率论和机器学习是计算机科学和人工智能领域的基本概念。概率论是用于描述不确定性和随机性的数学框架,而机器学习则是利用数据来训练计算机程序以进行自动化决策的方法。这两个领域密切相连,因为机器学习算法通常需要使用概率论来描述和处理数据的不确定性。

    2024年02月01日
    浏览(42)
  • 概率论_概率公式中的逗号( , ) 竖线( | ) 分号( ; )及其优先级

    目录 1.概率公式中的分号(;)、逗号(,)、竖线(|) 2.各种概率相关的基本概念 2.1 联合概率 2.2 条件概率(定义) 2.3 全概率(乘法公式的加强版) 2.4 贝叶斯公式 贝叶斯定理的公式推导  ;  分号 代表前后是两类东西,以概率P(x;θ)为例,分号前面是x样本,分号后边是模型参数。 分号

    2024年02月05日
    浏览(43)
  • 概率论-条件数学期望(复习笔记自用)

    实际上,求条件期望就是在新的概率空间上进行计算,即 ,因此也继承了期望的所有性质 如果 ,则E(X)=Eg(Y) 使用全概率公式,可以容易得到证明 理解,找到共性 正态分布的优良性质:正态分布的条件分布仍为正态分布 公式的证明充分体现出微分法的优势 理解:对于固定的

    2024年02月08日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包