马尔科夫链(Markov Chain)

这篇具有很好参考价值的文章主要介绍了马尔科夫链(Markov Chain)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1,马尔可夫性

马尔可夫性(Markov Property)是指系统的下一个状态马尔科夫链(Markov Chain)仅与当前状态有关,而与以前的状态无关

(即无记忆性(memorylessness),系统不记得当前状态以前的状态,仅仅基于当前状态来决定下一个时刻转移到什么状态)

2.马尔科夫链

如果指标集(index set)是连续的,则称为连续时间马尔可夫链(Continuous-Time MC, CTMC)

如果指标集是离散的,则称为离散时间马尔可夫链(Discrete-Time MC, DTMC)

马尔科夫链(Markov Chain)

1,某一时刻状态转移的概率只依赖于它的前一个状态( Xn+1 的概率只和之前的 Xn 的概率有关,称为无记忆性)==求出系统中任意两个状态之间的转换概率,就能确定马尔科夫链模型

2,状态的改变叫做转移,不同的状态改变的概率叫做转移概率==转移概率矩阵

转移矩阵(状态转移矩阵)

一步转移概率(条件概率)马尔科夫链(Markov Chain)

马尔科夫链(Markov Chain)

(矩阵相乘)


马尔科夫链的状态转移也可以用一个有向图(directed graph)来表示。其中的节点表示状态,边(edge)的箭头方向表示状态转移的方向,而edge上的数值则表示对应状态转移的概率

举例1

马尔科夫链(Markov Chain)

 有 A 和 B 两个状态,A 到 A 的概率是 0.3,A 到 B 的概率是 0.7;B 到 B 的概率是 0.1,B 到 A 的概率是 0.9

转移概率矩阵

马尔科夫链(Markov Chain)

复杂情况例子2

马尔科夫链(Markov Chain)

简述马尔可夫链【通俗易懂】 - 知乎 (zhihu.com)


主要特征:

1,状态空间可以是任何东西:字母,数字,篮球比分或者天气情况转移矩阵

2,转移矩阵:描述了特定转移发生的概率

3,初始状态:由初始分布给出的状态空间的初始状态

状态转移矩阵的稳定性

经过一定有限次数序列的转换,最终一定可以得到一个稳定的概率分布 ,且与初始状态无关


实现

用 Python 实现马尔可夫链

初始状态为

马尔科夫链(Markov Chain)

#导入库
import numpy as np
#设定转移矩阵
matrix = np.matrix([[0.3, 0.7],
                    [0.9, 0.1]])

#初始状态为[1,0]
vector1 = np.matrix([[1, 0]])

for i in range(50):
    vector1 = vector1 * matrix
    print('第{}轮'.format(i + 1))
    print(vector1)

第36轮开始,状态概率分布就不变了,一直保持在[0.5625 0.4375],并且改变初始状态,第37轮开始保持在[0.5625 0.4375],采用了不同初始概率分布,最终状态的概率分布趋于同一个稳定的概率分布即状态转移矩阵的稳定性

马尔科夫链(Markov Chain)

来源MCMC(二)马尔科夫链 - 刘建平Pinard - 博客园 (cnblogs.com)


 3,马尔可夫模型建模步骤

1,分级或分类——相互独立

分级:样本均值——标准差分级法、逐步聚类法、模糊聚类法

分类:根据变量地区、变量属性

2,检验马尔可夫性——马氏检验、卡方检验

3,计算马尔可夫转移矩阵(多步或者每一步取平均)

4,预测


案例

MCMC(二)马尔科夫链 - 刘建平Pinard - 博客园

1,分级或分类:假设某企业的经营状况分为盈利、持平、亏本3种状态,分别记为E1、E2、E3

马尔科夫链(Markov Chain)

3,计算马尔可夫转移矩阵(多步或者每一步取平均)

15个从El出发的状态中,有3个转移到了El,7个转移到了E2,5个转移到了E3。

相应得出从E2和E3出发的状态的转移情况。

马尔科夫链(Markov Chain)

 从盈利到盈利的一步转移概率:

马尔科夫链(Markov Chain)

从持平到亏本的一步转移概率:

马尔科夫链(Markov Chain)

马尔科夫链(Markov Chain)

参考:

简述马尔可夫链【通俗易懂】 - 知乎 (zhihu.com)

什么是马尔可夫链? - 知乎 (zhihu.com)

MCMC(二)马尔科夫链 - 刘建平Pinard - 博客园 (cnblogs.com)文章来源地址https://www.toymoban.com/news/detail-450578.html

到了这里,关于马尔科夫链(Markov Chain)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【大道至简】机器学习算法之隐马尔科夫模型(Hidden Markov Model, HMM)详解(2)---计算问题:前向算法和后向算法原理详解公式推导及Python实现

    ☕️ 本文系列文章汇总: (1)HMM开篇:基本概念和几个要素 (2)HMM计算问题:前后向算法 (3)HMM学习问题:Baum-Welch算法 (4) HMM预测问题:维特比算法 ☕️ 本文来自专栏: 大道至简之机器学习系列专栏 ❤️各位小伙伴们关注我的大道至简之机器学习系列专栏,一起学

    2024年02月05日
    浏览(45)
  • 马尔科夫状态转移矩阵

    一、马尔科夫状态转移矩阵性质 1. 每个时间点处在某一个状态,时间是离散的。 2. 每次到下一个时间点时按照图进行随机状态转移。 3. 假如某时的状态是个统计分布(看做向量),那么用状态转移矩阵(权值)乘这个向量就得下一时刻的状态。马尔可夫链的状态数可以是有

    2024年02月13日
    浏览(43)
  • 机器学习基础 HMM模型(隐马尔科夫)

    推荐参考:https://juejin.cn/post/6844903891834781703 在机器学习算法中,马尔可夫链(Markov chain)是个很重要的概念。马尔可夫链(Markov chain),又称离散时间马尔可夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫(俄语:Андрей Андреевич Марков)得名。 马尔科

    2024年02月02日
    浏览(68)
  • 8.(Python数模)(预测模型一)马尔科夫链预测

    马尔科夫链是一种进行预测的方法,常用于系统未来时刻情况只和现在有关, 而与过去无关 。 用下面这个例子来讲述马尔科夫链。 如何预测下一时刻计算机发生故障的概率? 当前状态只存在0(故障状态)和1(正常状态)两种,每种状态下各存在两个未来状态(00,01,11,10)

    2024年02月09日
    浏览(43)
  • 15、条件概率、全概率公式、贝叶斯公式、马尔科夫链

    定义:设A、B是两个事件,且,P(A) 0 则称 为事件A发生的条件下事件B的条件概率 对这个式子进行变形,即可得到概率的乘法公式: P(A) 0 时,则 P(B) 0 时,则 乍一看,这个式子不就是把除法形式写成了乘法形式嘛,不然不然,这个区别是本质的,分母不为0很关键,而且看法也

    2024年02月13日
    浏览(44)
  • 语音识别的进展:从隐马尔科夫模型到Transformers

    语音识别,也称为语音转文本,是一种将人类语音信号转换为文本的技术。它在人工智能领域具有重要的应用价值,例如语音助手、语音密码等。语音识别技术的发展历程可以分为以下几个阶段: 早期语音识别技术(1950年代至1970年代):这一阶段的语音识别技术主要基于隐

    2024年02月03日
    浏览(52)
  • 【RL】(task1)马尔科夫过程、动态规划、DQN

    递归结构形式的贝尔曼方程计算给定状态下的预期回报,这样的方式使得用逐步迭代的方法就能逼近真实的状态/行动值。 有了Bellman equation就可以计算价值函数了 马尔科夫过程描述了一个具有无记忆性质的随机过程,未来状态只依赖于当前状态,与过去状态无关,类似于一个

    2024年01月21日
    浏览(36)
  • 【线性代数07】马尔科夫矩阵和傅里叶矩阵

      本篇可以看作对行列式和特征值应用的举例。但我会谈些我感兴趣的部分,即离散信源信道模型和循环矩阵的对角化。 这个矩阵从概率论中概率的定义生发,因此 各元素实际上就是非负的概率值 。马尔科夫矩阵(Markov matrix)又称概率矩阵(probability matrix)、转移概率矩

    2024年02月04日
    浏览(39)
  • 马尔科夫决策过程-策略迭代与值迭代(基于动态规划)

    强化学习入门笔记,基于easy RL RL基础 强化学习(reinforcement learning,RL):智能体可以在与复杂且不确定的环境进行交互时,尝试使所获得的奖励最大化的算法。 动作(action): 环境接收到的智能体基于当前状态的输出。 状态(state):智能体从环境中获取的状态。 奖

    2024年02月04日
    浏览(43)
  • 马尔科夫不等式和坎泰利不等式的证明

    马尔科夫不等式(Markov’s inequality) 对于随机变量 X X X ,有 P ( ∣ X ∣ ⩾ ε ) ⩽ E ∣ X ∣ k ε k , ε 0 , k ∞ Pleft( left| X right|geqslant varepsilon right) leqslant frac{Eleft| X right|^k}{varepsilon ^k},varepsilon 0,kinfty P ( ∣ X ∣ ⩾ ε ) ⩽ ε k E ∣ X ∣ k ​ , ε 0 , k ∞ 证明: P ( ∣ X ∣ ⩾ ε

    2024年02月08日
    浏览(39)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包