15、条件概率、全概率公式、贝叶斯公式、马尔科夫链

这篇具有很好参考价值的文章主要介绍了15、条件概率、全概率公式、贝叶斯公式、马尔科夫链。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

条件概率

定义:设A、B是两个事件,且,P(A) > 0 则称 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 为事件A发生的条件下事件B的条件概率

对这个式子进行变形,即可得到概率的乘法公式:

P(A) > 0 时,则条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

P(B) > 0 时,则条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

乍一看,这个式子不就是把除法形式写成了乘法形式嘛,不然不然,这个区别是本质的,分母不为0很关键,而且看法也不同:前面的是条件概率,后面的是概率的乘法公式。

概率的乘法公式,起源于概率的乘法原理,一件事情发生的概率等于造成这件事发生的接连发生的事件概率的乘积,如果要让A,B同时发生,那么就让其中一个先发生,不妨设为A吧,A发生以后B再发生,这样子的话,A,B就会同时发生了,根据概率的乘法原理如下

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

概率的乘法公式的n个事件的形式:

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

如果要使n件事件同时发生,不妨先发生 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档,接着再发生 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档,

全概率公式

若事件条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档满足下列两条

  1. 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

  1. 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

则称 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档为完备事件组

全概率公式如:

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

以n=3为例:

比如一件事情的结果就只有三种 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 ,也知道它们发生的概率,但是呢,这时候偏偏有一个事件B也发生了,我们的目的是找出B发生的概率,于是呢,我们让B与 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 发生联系,从而进行试验,可以得到各自的条件概率 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 ,那么这就足够了,我们就可以得到事件B发生的概率

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

贝叶斯公式

贝叶斯定理的发明者 托马斯·贝叶斯 提出了一个很有意思的假设:“如果一个袋子中共有 10 个球,分别是黑球和白球,但是我们不知道它们之间的比例是怎么样的,现在,仅通过摸出的球的颜色,是否能判断出袋子里面黑白球的比例?”

简单而言就是已知结果找原因

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档是完备事件组,且条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

B 为任意事件,P(B) > 0,则

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

对于这个公式的理解主要靠上面那句话。什么是结果?什么又是原因?对于全概率公式,我们说是为了求事件B发生的概率所做的试验,这些就是结果了,那么反过来,我们找原因,这些完备事件在B发生时的条件概率就是我们所要查照的原因了。

通常把 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 叫做先验概率,就是做试验前的概率,就是经验了;而把 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档叫做后验概率,在统计决策中十分重要,由此得到的决策叫做贝叶斯决策。也就是说我们在对经验不断地更新和修正,当然是利用生活实践,即所谓试验。(又是一个人生哲理,对于很多事情,就是要不断地利用当前的经验来进行试错,不断地修正,从而达到自我的一个最佳状态

马尔科夫链

定义一种表述方法,考虑只取有限个或可数个值的随机过程 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 ,则称过程在 n 时刻处于状态 i。

马尔可夫性:给定过去的状态 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档和现在的状态 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档,将来的状态 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 的条件分布与过去的状态独立,只依赖于现在的状态,这样的性质称为马尔可夫性。

如果我们用 A表示过去的状态,用 B 表示现在的状态,而用 C 表示将来的状态,即

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

则马尔科夫性可以用条件概率直观表示为

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

等价推出

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

因此马尔可夫性也可以理解为在已知现在状态的条件下,过去与将来相互独立

马尔科夫链:设随机过程 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 的状态空间 I 有限或可列,如果它具有马尔科夫性,即对任意的状态条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 和任意的 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

则称随机过程 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 是马尔科夫链,简称马氏链

把具有马尔可夫性的随机过程称为马尔可夫过程。

马尔可夫链是离散时间离散状态的马尔可夫过程。

泊松过程是连续时间离散状态的马尔可夫过程。

布朗运动是连续时间连续状态的马尔科夫过程。

转移概率和转移矩阵

考虑马尔科夫链 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 及其状态空间 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档,将条件概率定义为

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

用来表示过程在 m 时刻处于状态 i 的条件下,经过 n 步后转移到状态 j 的转移概率。 由于概率是非负的,且过程在 m 时刻从任何一个状态 i 出发,到 m + n 时刻必须转移到 I 中的某个状态,所以有

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

时齐的马尔可夫链:如果条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 不依赖于 n,则过程 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档是时齐的马尔可夫链。定义马尔可夫链的一步转移概率为

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

一步转移概率 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档 的含义是处在状态 i 的过程下一次转移到状态 j的概率,显然一步转移概率也具有如下性质:

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

不妨设状态空间为自然数集 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档,定义一步转移概率矩阵为

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

显然一步转移概率矩阵 P 的所有元素都是非负的,且每一行的元素之和为 1 。

在马尔可夫链是时齐的情形下,条件概率 条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档只与 i , j 以及时间间隔 n 有关,定义马尔可夫链的 n 步转移概率为

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

其含义是处在状态 i 过程将在 n 次转移之后处于状态 j 的概率。类似的可以定义 n 步转移概率矩阵为

条件概率矩阵公式,# 机器学习-算法入门,概率论,Powered by 金山文档

如果想判断一个马尔可夫链是时齐的,只需要证明它的一步转移概率与时间 n 无关即可文章来源地址https://www.toymoban.com/news/detail-541376.html

到了这里,关于15、条件概率、全概率公式、贝叶斯公式、马尔科夫链的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 马尔科夫链(Markov Chain)

    马尔可夫性(Markov Property)是指系统的下一个状态 仅与当前状态有关,而与以前的状态无关 (即无记忆性(memorylessness),系统不记得当前状态以前的状态,仅仅基于当前状态来决定下一个时刻转移到什么状态) 如果指标集(index set)是连续的,则称为连续时间马尔可夫链(Continuou

    2024年02月05日
    浏览(34)
  • 初识马尔科夫模型(Markov Model)

    马尔科夫模型(Markov Model)是一种概率模型,用于描述随机系统中随时间变化的概率分布。马尔科夫模型基于马尔科夫假设,即当前状态只与其前一个状态相关,与其他状态无关。 马尔科夫模型具有如下几个性质: ① 马尔科夫性 :即马尔科夫模型的下一个状态只与当前状态

    2024年02月04日
    浏览(29)
  • 机器学习基础 HMM模型(隐马尔科夫)

    推荐参考:https://juejin.cn/post/6844903891834781703 在机器学习算法中,马尔可夫链(Markov chain)是个很重要的概念。马尔可夫链(Markov chain),又称离散时间马尔可夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫(俄语:Андрей Андреевич Марков)得名。 马尔科

    2024年02月02日
    浏览(70)
  • python之马尔科夫链(Markov Chain)

    马尔可夫链(Markov Chain)是一种随机过程,具有“马尔可夫性质”,即在给定当前状态的条件下,未来状态的概率分布仅依赖于当前状态,而与过去状态无关。马尔可夫链在很多领域都有广泛的应用,包括蒙特卡洛方法、统计物理学、自然语言处理等。 马尔可夫链的一般定义

    2024年02月21日
    浏览(44)
  • 8.(Python数模)(预测模型一)马尔科夫链预测

    马尔科夫链是一种进行预测的方法,常用于系统未来时刻情况只和现在有关, 而与过去无关 。 用下面这个例子来讲述马尔科夫链。 如何预测下一时刻计算机发生故障的概率? 当前状态只存在0(故障状态)和1(正常状态)两种,每种状态下各存在两个未来状态(00,01,11,10)

    2024年02月09日
    浏览(46)
  • 语音识别的进展:从隐马尔科夫模型到Transformers

    语音识别,也称为语音转文本,是一种将人类语音信号转换为文本的技术。它在人工智能领域具有重要的应用价值,例如语音助手、语音密码等。语音识别技术的发展历程可以分为以下几个阶段: 早期语音识别技术(1950年代至1970年代):这一阶段的语音识别技术主要基于隐

    2024年02月03日
    浏览(53)
  • 【RL】(task1)马尔科夫过程、动态规划、DQN

    递归结构形式的贝尔曼方程计算给定状态下的预期回报,这样的方式使得用逐步迭代的方法就能逼近真实的状态/行动值。 有了Bellman equation就可以计算价值函数了 马尔科夫过程描述了一个具有无记忆性质的随机过程,未来状态只依赖于当前状态,与过去状态无关,类似于一个

    2024年01月21日
    浏览(37)
  • 马尔科夫决策过程-策略迭代与值迭代(基于动态规划)

    强化学习入门笔记,基于easy RL RL基础 强化学习(reinforcement learning,RL):智能体可以在与复杂且不确定的环境进行交互时,尝试使所获得的奖励最大化的算法。 动作(action): 环境接收到的智能体基于当前状态的输出。 状态(state):智能体从环境中获取的状态。 奖

    2024年02月04日
    浏览(46)
  • 条件概率、贝叶斯公式理解

    1、 条件概率 条件概率是指事件A在事件B发生的条件下发生的概率, 记作:P(A|B)。如下图所示:整个样本空间为Ω,事件A和事件B包含在Ω中。事件A和事件B同时发生的情况,即A、B交集记作AB。事件A的概率记作:P(A)=A/Ω,事件B的概率记作P(B)=B/Ω。AB交集部分的概率记作:P(A

    2024年02月11日
    浏览(58)
  • 马尔科夫不等式和坎泰利不等式的证明

    马尔科夫不等式(Markov’s inequality) 对于随机变量 X X X ,有 P ( ∣ X ∣ ⩾ ε ) ⩽ E ∣ X ∣ k ε k , ε 0 , k ∞ Pleft( left| X right|geqslant varepsilon right) leqslant frac{Eleft| X right|^k}{varepsilon ^k},varepsilon 0,kinfty P ( ∣ X ∣ ⩾ ε ) ⩽ ε k E ∣ X ∣ k ​ , ε 0 , k ∞ 证明: P ( ∣ X ∣ ⩾ ε

    2024年02月08日
    浏览(40)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包