EM算法和HMM模型的介绍

这篇具有很好参考价值的文章主要介绍了EM算法和HMM模型的介绍。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一、EM算法的介绍

1.什么是EM算法?

EM算法(Expectation-Maximization algorithm)是一种迭代算法,用于求解含有隐变量(latent variable)的概率模型参数估计问题。它是一个基础算法,是很多机器学习领域算法的基础,比如隐式马尔科夫算法(HMM)等等。它被广泛应用于统计学和机器学习中,特别是在无监督学习中,如聚类、混合高斯模型等问题。

EM算法的目标是通过迭代优化的方式,最大化观测数据的似然函数(或最大化似然函数的对数),从而估计模型的参数。在这个过程中,存在隐变量,即一些无法直接观测到的变量。EM算法通过迭代的方式,通过先计算隐变量的期望(E步骤),然后调整模型参数以最大化似然函数(M步骤),不断更新参数估计值。

2.EM算法的计算步骤
  1. 初始化模型参数。
  2. E步骤(Expectation Step):根据当前参数估计值,计算隐变量的后验概率或期望。
  3. M步骤(Maximization Step):利用E步骤计算得到的隐变量的期望,更新模型参数,最大化似然函数。
  4. 重复执行E步骤和M步骤,直到满足停止条件(如达到最大迭代次数或参数收敛)。
  5. 输出最终的参数估计值。

EM算法的关键在于在E步骤中计算隐变量的期望,以及在M步骤中通过最大化似然函数来更新模型参数。这种迭代的过程可以逐步提高参数估计的准确性,从而得到更好的模型拟合结果。

3.什么是极大似然估计?

极大似然估计(Maximum Likelihood Estimation,MLE)是一种参数估计方法,用于从观测数据中估计出最有可能产生这些观测数据的模型参数。它基于概率论的思想,假设观测数据是从某个概率分布中独立地抽取得到的,并且通过最大化观测数据的似然函数来确定模型的参数值。

具体而言,假设我们有一组观测数据,要估计的是概率分布的参数(如均值、方差等)。极大似然估计的目标是找到能够使得观测数据的出现概率最大化的参数值。

假设观测数据为 X = {x₁, x₂, …, xₙ},概率分布的参数为 θ。观测数据的似然函数 L(θ|X) 表示在给定参数值 θ 下,观测数据 X 出现的概率。MLE的目标是找到最大化似然函数的参数值,即使得 L(θ|X) 最大的 θ。

通常情况下,为了方便计算,我们对似然函数取对数得到对数似然函数。因为对数函数是单调递增的,最大化似然函数等价于最大化对数似然函数。因此,MLE的目标可以转化为找到最大化对数似然函数的参数值。

一旦得到最大化似然函数的参数估计值,就可以使用这些参数进行预测或其他进一步的分析。

4.极大似然估计公式

给定独立同分布的观测数据 X₁, X₂, …, Xₙ,来自于具有参数 θ 的概率分布,极大似然估计(Maximum Likelihood Estimation,MLE)的公式可以表示为:

似然函数 L(θ) 定义为观测数据的联合概率密度函数(或概率质量函数):

L(θ) = f(X₁; θ) * f(X₂; θ) * … * f(Xₙ; θ)

其中 f(Xᵢ; θ) 表示观测数据 Xᵢ 的概率密度函数(或概率质量函数)。

通常使用对数似然函数来替代似然函数,以便于计算和优化。对数似然函数定义为似然函数的自然对数:

log L(θ) = log(f(X₁; θ)) + log(f(X₂; θ)) + … + log(f(Xₙ; θ))

极大似然估计的目标是找到最大化似然函数(或对数似然函数)的参数值 θ̂。换句话说:

θ̂ = argmax L(θ) 或 θ̂ = argmax log L(θ)

可以通过对似然函数(或对数似然函数)对参数 θ 求导并令导数为零,然后解方程得到 θ̂。在某些情况下,可以使用数值优化方法来找到最大似然估计。

最大似然估计 θ̂ 被认为是对于给定观测数据和假设的概率分布,最好的参数估计值。它提供了一个使得观测数据在指定模型下似然最大化的点估计。

5.极大似然估计的案例

假设我们有一枚硬币,我们想要估计这枚硬币正面朝上的概率 p。我们进行了一系列的投掷实验,记录下每次投掷的结果,1 表示正面朝上,0 表示反面朝上。我们得到了一组观测数据 X = {1, 0, 1, 1, 0, 1}。

在这个例子中,我们假设每次投掷是独立的,并且符合二项分布。二项分布是一种离散概率分布,表示在 n 次独立的二元试验中成功的次数,其中每次试验的成功概率为 p。

现在,我们的目标是通过观测数据 X 来估计硬币正面朝上的概率 p。我们可以使用极大似然估计来找到最有可能产生这些观测数据的参数值。

假设观测数据 X 的长度为 n,其中正面朝上的次数为 m。那么,观测数据的似然函数为:

L(p|X) = p^m * (1-p)^(n-m)

我们的目标是找到使得似然函数 L(p|X) 最大化的 p 值。为了方便计算,我们通常对似然函数取对数,得到对数似然函数:

log L(p|X) = m * log§ + (n-m) * log(1-p)

现在,我们的任务是找到最大化对数似然函数的 p 值。这可以通过求导或者通过观察函数的形状来得到。对于二项分布的情况,我们可以发现对数似然函数在 p = m/n 处取得最大值。

因此,通过极大似然估计,我们得到了硬币正面朝上的概率 p 的估计值为 m/n,其中 m 是观测数据中正面朝上的次数,n 是观测数据的总数。

通过这个简单的例子,我们可以看到极大似然估计的基本思想:寻找能够最大化观测数据的似然函数(或对数似然函数)的参数值,从而估计出最有可能产生这些观测数据的模型参数。在实际应用中,极大似然估计可以应用于更复杂的概率模型和更多的观测数据,用于参数估计和统计推断。

二、HMM模型的介绍

1.马尔科夫链

在机器学习中,马尔科夫链(Markov Chain)是个很重要的概念。马尔科夫链(Markov Chain),又称离散时间马尔科夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫得名。

马尔科夫链(Markov Chain)是一种数学模型,用于描述具有马尔科夫性质的随机过程马尔科夫性质指的是在给定当前状态的情况下,未来状态的概率只依赖于当前状态,而与过去状态无关

马尔科夫链由一组状态和状态之间的转移概率组成。每个状态代表系统或过程可能处于的一个特定情况,转移概率表示在某个状态下,系统转移到其他状态的概率

马尔科夫链的特点是具有无记忆性,即未来状态的概率只取决于当前状态,与过去的状态序列无关。这意味着马尔科夫链的演化过程是按照一步一步的转移进行的,每一步的转移仅依赖于当前状态。

马尔科夫链的数学表示为:
P ( x ( t + 1 )丨 ⋅ ⋅ ⋅ , x ( t − 2 ), x ( t − 1 ), x ( t )) = P ( x ( t + 1 )丨 x ( t )) P(x(t+1)丨···,x(t-2),x(t-1),x(t))=P(x(t+1)丨x(t)) Pxt+1)丨⋅⋅⋅xt2),xt1),xt))=Pxt+1)丨xt))
既然某一时刻状态转移的概率只依赖前一个状态,那么只需要求出系统中任意两个状态之间的转移概率,这个马尔科夫链的模型就定了

马尔科夫链在许多领域有广泛的应用,包括自然语言处理、图像处理、机器学习等。通过对马尔科夫链进行建模和分析,可以研究系统的状态演化、预测未来状态、计算平稳分布等问题。

2.举例说明马尔科夫链

当我们考虑一个简单的天气模型时,我们可以将天气分为两种状态:晴天(Sunny)和雨天(Rainy)。我们将这两种状态作为马尔科夫链的状态。

假设我们有以下状态转移矩阵 P:

       Sunny    Rainy
Sunny   0.8      0.2
Rainy   0.4      0.6

这意味着在晴天的情况下,下一天是晴天的概率为 0.8,是雨天的概率为 0.2。同样,在雨天的情况下,下一天是晴天的概率为 0.4,是雨天的概率为 0.6。

假设我们的初始状态概率分布为:

  • 初始天气为晴天的概率为 0.6,为雨天的概率为 0.4。

现在,可以使用这些信息来模拟天气的状态。假设今天是晴天(初始状态),我们可以根据状态转移矩阵计算明天的天气状态。

在第一天晴天的情况下,下一天是晴天的概率为 0.8,是雨天的概率为 0.2。因此,明天是晴天的概率为 0.8,是雨天的概率为 0.2。

我们可以继续进行类似的计算来预测未来的天气状态。每一天的天气状态仅依赖于前一天的天气状态,而与更早的天气状态无关。

这就是一个简单的马尔科夫链模型,它描述了天气状态的转移概率。通过观察一系列天气状态,我们可以利用马尔科夫链来推断未来的天气状态或分析天气状态之间的关联性。

3.什么是HMM模型?

HMM(Hidden Markov Model)模型是一种统计模型,用于建模和分析由隐含的状态序列生成的可观测序列的概率模型。HMM模型假设系统中存在一个不可见的状态序列,每个状态生成一个可观测的输出。

HMM模型由两个基本部分组成:状态转移概率和观测概率(输出概率)

  • 状态转移概率:描述了在给定状态下系统从一个状态转移到另一个状态的概率。
  • 观测概率(输出概率):描述了在给定状态下系统生成特定观测的概率。

HMM模型需要具备的要素

  1. 状态集合:表示系统可能处于的状态的集合。
  2. 初始状态概率分布:表示系统的初始状态的概率分布。
  3. 状态转移概率矩阵:描述系统从一个状态转移到另一个状态的概率。
  4. 观测集合:表示系统可能生成的观测的集合。
  5. 观测概率矩阵:描述系统在给定状态下生成特定观测的概率。

HMM模型常用于序列数据的建模和分析,如语音识别、自然语言处理、手写识别等领域。在HMM模型中,通过观测序列来推断最可能的状态序列,或者根据状态序列生成对应的观测序列。

4.什么样的问题需要HMM模型

使用HMM模型时我们的问题一般有这两个特征:

  1. 我们的问题是基于序列的,比如时间序列,或者状态序列。

  2. 我们的问题中有两类数据:

    1. 一类序列数据是可以观测到的,即观测序列
    2. 另一类数据是不能观测到的,即隐藏状态序列简称状态序列

    有了这两个特征,那么这个问题一般可以用HMM模型来尝试解决。这样的问题在实际生活中是很多的。

    • 比如:在键盘上敲出来的一系列字符就是观测序列,而我实际想写的一段话就是隐藏状态序列,输入法的任务就是从敲入的一系列字符尽可能的猜测我要写的一段话,并把最可能的词语放在最前面让我选择,这就可以看做一个HMM模型。
5.HMM模型的两个重要假设
  1. 齐次马尔科夫链假设
    • 任意时刻的隐藏状态只依赖于它前一个隐藏状态
      • 当然这样假设有点极端,因为很多时候我们的某一个隐藏状态不仅仅只依赖于前一个隐藏状态,可能是前两个或者是前三个。
      • 但是这样假设的好处就是模型简单,便于求解。
  2. 观测独立性假设
    • 任意时刻的观察状态只仅仅依赖于当前时刻的隐藏状态,这也是一个为了简化模型的假设。

一个HMM模型,可以由隐藏状态初始概率分布π,状态转移概率矩阵A和观测状态概率矩阵B决定

6.HMM模型实例

当我们考虑一个简单的语音识别问题时,我们可以使用HMM模型来建模和解决这个问题。假设我们有一个包含三个状态的HMM模型,表示三个可能的语音信号:静音(Silent)、辅音(Consonant)和元音(Vowel)。

目标是根据观测到的语音信号序列,推断出最可能的隐藏状态序列,即最可能的语音信号类型序列。

假设我们有以下HMM模型的参数:

  1. 状态集合:{Silent, Consonant, Vowel}

  2. 初始状态概率分布:π = [0.4, 0.3, 0.3],表示初始时处于静音状态的概率为 0.4,辅音状态的概率为 0.3,元音状态的概率为 0.3。

  3. 状态转移概率矩阵A:

               Silent     Consonant    Vowel
    Silent      0.6          0.4         0
    Consonant   0.3          0.6        0.1
    Vowel        0           0.4        0.6
    

    这表示在当前状态下,转移到其他状态的概率。

  4. 观测集合:{A, B, C},表示观测到的语音信号的集合。

  5. 观测概率矩阵B:

                A        B        C
    Silent     0.1      0.3      0.6
    Consonant  0.4      0.4      0.2
    Vowel      0.6      0.3      0.1
    

    这表示在给定状态下,生成不同观测的概率。

假设我们观测到一个语音信号序列为 {B, C, A},我们想要根据这个观测序列推断最可能的隐藏状态序列。

可以使用维特比算法来计算最可能的隐藏状态序列。维特比算法使用动态规划的方式,在每个时间步骤上计算最可能的状态序列。

根据观测到的语音信号序列 {B, C, A},我们可以计算每个时间步骤的最可能状态。通过比较每个时间步骤的状态概率,可以确定最可能的状态序列。

在这个例子中,根据维特比算法的计算,我们可以得到最可能的隐藏状态序列为 {Consonant, Vowel, Vowel}。这表示在给定观测序列的情况下,最可能的语音信号类型序列是辅音、元音、元音。

7.HMM模型中,常见的问题分类:
  1. 评估问题(Evaluation Problem)-----前向后向的概率计算给定一个观测序列和模型参数,计算观测序列出现的概率。也就是说,我们需要计算给定观测序列 O 的条件下,模型参数 θ=(A, B, π) 下的 P(O|θ)。
  2. 解码问题(Decoding Problem)-----维特比算法求解给定一个观测序列和模型参数,找到最可能的隐藏状态序列。也就是说,我们需要找到使得 P(Q|O, θ) 最大的隐藏状态序列 Q,其中 Q 表示隐藏状态序列,O 表示观测序列,θ 表示模型参数。
  3. 学习问题(Learning Problem)-----鲍姆-韦尔奇算法求解给定一个观测序列,通过对观测序列的观察来估计模型的参数。也就是说,我们需要估计模型参数 θ=(A, B, π) 的值,使得在给定观测序列 O 下的 P(O|θ) 达到最大。

这三类问题在HMM中都具有重要的意义,评估问题用于计算观测序列的概率,解码问题用于推断最可能的隐藏状态序列,学习问题用于估计模型参数。解决这些问题的方法包括维特比算法、前向-后向算法、Baum-Welch算法等。

三、前向后向算法评估观察序列概率

1.前向算法的基本流程

前向算法本质上属于动态规划的算法,也就是我们要通过找到局部状态递推的公式,这样一步步地从子问题的最优解拓展到整个问题的最优解。前向算法的时间复杂度为:O(TN2),暴力求解的时间复杂度为:O(TNT)。

前向算法是用于解决隐马尔可夫模型(HMM)中的评估问题,即给定一个观测序列和模型参数,计算观测序列的概率。下面是前向算法的基本流程:

  1. 初始化:对于时间步骤 t=1,计算初始状态的概率。即计算每个状态 i 的初始概率值,即 π[i] * 观测概率矩阵[i, O[1]],其中 π[i] 是初始状态概率分布,O[1] 是观测序列中的第一个观测值。
  2. 递推:对于每个时间步骤 t>1,递归地计算每个状态 i 的前向概率。具体步骤如下:
    • 对于每个状态 i,在上一个时间步骤 t-1 的每个状态 j 上计算概率值。即计算上一步的前向概率乘以状态转移概率和观测概率,即 α[t-1, j] * 状态转移矩阵[j, i] * 观测概率矩阵[i, O[t]]。
    • 将上述计算结果累加得到当前时间步骤 t 的前向概率,即 α[t, i] = Σ(α[t-1, j] * 状态转移矩阵[j, i] * 观测概率矩阵[i, O[t]])。
  3. 终止:计算观测序列的概率。将最后一个时间步骤的前向概率进行累加,即 P(O) = Σ(α[T, i]),其中 T 是观测序列的长度。

通过前向算法,可以有效计算出给定观测序列的概率。该概率可以用于模型选择、序列比较等应用。

2.前向算法的实例

假设我们有一个隐马尔可夫模型(HMM),包含三个隐藏状态 {A, B, C} 和三个观测值 {1, 2, 3}。给定观测序列 O = [1, 2, 3],我们要计算该观测序列出现的概率。

首先,我们需要定义模型的参数,包括初始状态概率分布 π,状态转移概率矩阵 A,和观测概率矩阵 B。假设参数如下:

初始状态概率分布 π = [0.3, 0.4, 0.3] 状态转移概率矩阵 A = [[0.2, 0.5, 0.3], [0.4, 0.1, 0.5], [0.3, 0.6, 0.1]] 观测概率矩阵 B = [[0.6, 0.4, 0.0], [0.1, 0.7, 0.2], [0.3, 0.3, 0.4]]

接下来,我们可以使用前向算法计算观测序列的概率。

  1. 初始化:计算初始状态的概率。根据初始状态概率分布 π 和观测序列的第一个观测值 O[1] = 1,我们可以计算每个状态的初始概率值:

    • α[1, A] = π[A] * B[A, 1] = 0.3 * 0.6 = 0.18
    • α[1, B] = π[B] * B[B, 1] = 0.4 * 0.1 = 0.04
    • α[1, C] = π[C] * B[C, 1] = 0.3 * 0.3 = 0.09
  2. 递推:根据状态转移概率矩阵和观测概率矩阵,递归地计算每个时间步骤的前向概率。对于时间步骤 t>1,我们可以使用以下公式计算前向概率:

    • α[t, i] = Σ(α[t-1, j] * A[j, i] * B[i, O[t]])

    根据上述公式,我们可以计算出每个时间步骤的前向概率:

    • α[2, A] = α[1, A] * A[A, A] * B[A, 2] + α[1, B] * A[B, A] * B[A, 2] + α[1, C] * A[C, A] * B[A, 2] = 0.18 * 0.2 * 0.4 + 0.04 * 0.4 * 0.4 + 0.09 * 0.3 * 0.4 = 0.0468
    • α[2, B] = α[1, A] * A[A, B] * B[B, 2] + α[1, B] * A[B, B] * B[B, 2] + α[1, C] * A[C, B] * B[B, 2] = 0.18 * 0.5 * 0.7 + 0.04 * 0.1 * 0.7 + 0.09 * 0.6 * 0.7 = 0.0804
    • α[2, C] = α[1, A] * A[A, C] * B[C, 2] + α[1, B] * A[B, C] * B[C, 2] + α[1, C] * A[C, C] * B[C, 2] = 0.18 * 0.3 * 0.0 + 0.04 * 0.5 * 0.0 + 0.09 * 0.1 * 0.0 = 0.0
    • α[3, A] = α[2, A] * A[A, A] * B[A, 3] + α[2, B] * A[B, A] * B[A, 3] + α[2, C] * A[C, A] * B[A, 3] = …
    • α[3, B] = …
    • α[3, C] = …
  3. 终止:计算观测序列的概率。将最后一个时间步骤的前向概率进行累加,即 P(O) = Σ(α[T, i]),其中 T 是观测序列的长度。

通过以上计算,我们可以得到观测序列 O = [1, 2, 3] 的概率 P(O)。在本例中,通过前向算法计算得到的观测序列的概率为 P(O) = α[3, A] + α[3, B] + α[3, C] = 0.0648 + 0.1044 + 0.0 = 0.1692。

3.后向算法的基本流程

后向算法用于计算给定观测序列的概率。下面是后向算法的流程:

  1. 初始化:将所有时间步骤的后向概率初始化为1,即 β[T, i] = 1,其中 T 是观测序列的长度。

  2. 递推:从倒数第二个时间步骤开始,递归地计算每个时间步骤的后向概率。对于时间步骤 t<T,可以使用以下公式计算后向概率:

    • β[t, i] = Σ(β[t+1, j] * A[i, j] * B[j, O[t+1]])

    根据上述公式,我们可以计算出每个时间步骤的后向概率:

    • β[T-1, A] = β[T, A] * A[A, A] * B[A, O[T]] + β[T, B] * A[A, B] * B[B, O[T]] + β[T, C] * A[A, C] * B[C, O[T]] = …
    • β[T-1, B] = …
    • β[T-1, C] = …
    • β[T-2, A] = β[T-1, A] * A[A, A] * B[A, O[T-1]] + β[T-1, B] * A[A, B] * B[B, O[T-1]] + β[T-1, C] * A[A, C] * B[C, O[T-1]] = …
    • β[T-2, B] = …
    • β[T-2, C] = …

    依此类推,递推计算每个时间步骤的后向概率。

  3. 终止:计算观测序列的概率。将初始状态概率分布与第一个时间步骤的观测概率矩阵相乘,再与第一个时间步骤的后向概率向量相乘,即可得到观测序列的概率:

    • P(O) = Σ(π[i] * B[i, O[1]] * β[1, i])

通过以上计算,我们可以得到观测序列 O 的概率 P(O)。

四、维特比算法解码隐藏状态序列

1.维特比算法的基本流程

维特比算法是一个通用的求序列最短路径的动态规划算法,也可用于很多其他问题。

维特比算法用于解码隐藏状态序列,即找到最可能的隐藏状态序列。下面是维特比算法的流程:

  1. 初始化:将初始时间步骤的最大概率路径的概率初始化为1,即 δ[1, i] = π[i],其中 π 是初始状态概率分布。

  2. 递推:从第二个时间步骤开始,递归地计算每个时间步骤的最大概率路径的概率和路径。对于时间步骤 t>1,可以使用以下公式计算最大概率路径:

    • δ[t, j] = max(δ[t-1, i] * A[i, j] * B[j, O[t]]),其中 i 是前一个时间步骤的隐藏状态,j 是当前时间步骤的隐藏状态。

    根据上述公式,我们可以计算出每个时间步骤的最大概率路径的概率和路径:

    • δ[2, A] = max(δ[1, A] * A[A, A] * B[A, O[2]], δ[1, B] * A[B, A] * B[A, O[2]], δ[1, C] * A[C, A] * B[A, O[2]]) = …
    • δ[2, B] = …
    • δ[2, C] = …
    • δ[3, A] = max(δ[2, A] * A[A, A] * B[A, O[3]], δ[2, B] * A[B, A] * B[A, O[3]], δ[2, C] * A[C, A] * B[A, O[3]]) = …
    • δ[3, B] = …
    • δ[3, C] = …

    依此类推,递推计算每个时间步骤的最大概率路径的概率和路径。

  3. 终止:找到最后一个时间步骤的最大概率路径的概率和路径。最终的隐藏状态序列是具有最大概率路径的隐藏状态序列。

通过以上计算,我们可以找到最可能的隐藏状态序列。

2.维特比算法的实例

假设我们有一个隐马尔可夫模型(HMM),其中隐藏状态是晴天(Sunny)和雨天(Rainy),观测状态是散步(Walk)和购物(Shop)。我们的目标是根据观测序列来解码隐藏状态序列。

给定以下参数和观测序列:

隐藏状态转移矩阵 A:

      Sunny  Rainy
Sunny  0.7    0.3
Rainy  0.4    0.6

观测状态概率矩阵 B:

      Walk  Shop
Sunny  0.8   0.2
Rainy  0.3   0.7

初始状态概率分布 π:

Sunny  0.6
Rainy  0.4

观测序列 O:Walk, Walk, Shop

现在我们将使用维特比算法来解码隐藏状态序列。

  1. 初始化:将初始时间步骤的最大概率路径的概率初始化为1,即 δ[1, i] = π[i]。
  2. 递推:从第二个时间步骤开始,递归地计算每个时间步骤的最大概率路径的概率和路径。
    • 对于时间步骤 t=2:
      • δ[2, Sunny] = max(δ[1, Sunny] * A[Sunny, Sunny] * B[Sunny, Walk], δ[1, Rainy] * A[Rainy, Sunny] * B[Sunny, Walk]) = 0.6 * 0.7 * 0.8 = 0.336
      • δ[2, Rainy] = max(δ[1, Sunny] * A[Sunny, Rainy] * B[Rainy, Walk], δ[1, Rainy] * A[Rainy, Rainy] * B[Rainy, Walk]) = 0.6 * 0.3 * 0.3 = 0.054
    • 对于时间步骤 t=3:
      • δ[3, Sunny] = max(δ[2, Sunny] * A[Sunny, Sunny] * B[Sunny, Shop], δ[2, Rainy] * A[Rainy, Sunny] * B[Sunny, Shop]) = 0.336 * 0.7 * 0.2 = 0.04704
      • δ[3, Rainy] = max(δ[2, Sunny] * A[Sunny, Rainy] * B[Rainy, Shop], δ[2, Rainy] * A[Rainy, Rainy] * B[Rainy, Shop]) = 0.336 * 0.3 * 0.7 = 0.07056
  3. 终止:找到最后一个时间步骤的最大概率路径的概率和路径。
    • 最后一个时间步骤是 t=3:
      • 最大概率路径的概率是 max(δ[3, Sunny], δ[3, Rainy]) = max(0.04704, 0.07056) = 0.07056
      • 当时间步骤为3时,最大概率路径对应的隐藏状态是 Rainy
    • 时间步骤是 t=2:
      • 最大概率路径的概率是 max(δ[2, Sunny], δ[2, Rainy]) = max(0.336, 0.054)
      • 当时间步骤为2时,最大概率路径对应的隐藏状态是 Sunny
    • 时间步骤是 t=1:
      • 最大概率路径的概率是 max(δ[1, Sunny], δ[1, Rainy] = max(0.6, 0.4)
      • 当时间步骤为1时。最大概率路径对应的隐藏状态是 Sunny

因此,根据观测序列 Walk, Walk, Shop,使用维特比算法解码得到的最可能的隐藏状态序列是 Sunny, Sunny, Rainy。

五、鲍姆-韦尔奇算法简介

1.鲍姆-韦尔奇算法的基本流程

鲍姆-韦尔奇算法,其实就是基于EM算法的求解,只不过鲍姆-韦尔奇算法出现的时代,EM算法还没有被抽象出来,所以被叫为鲍姆-韦尔奇算法。

鲍姆-韦尔奇算法(Baum-Welch algorithm)是用于无监督学习的隐马尔可夫模型(HMM)参数估计的一种算法。其基本流程如下:

  1. 初始化:随机初始化隐藏状态转移矩阵 A、观测状态概率矩阵 B、初始状态概率分布 π,或者使用先验知识进行初始化。
  2. E步骤(Expectation step):
    • 使用前向算法计算在当前参数下观测序列的前向概率 α 和后向概率 β。
    • 使用 α 和 β 计算在每个时间步骤 t 和隐藏状态 i 下,隐藏状态为 i 的概率作为后验概率 γ。
  3. M步骤(Maximization step):
    • 使用观测序列和后验概率 γ 更新隐藏状态转移矩阵 A、观测状态概率矩阵 B、初始状态概率分布 π。
    • 计算在当前参数下观测序列的似然函数,并检查是否达到收敛条件。如果未达到收敛条件,则返回第2步。
  4. 重复第2步和第3步,直到达到收敛条件(例如,参数变化小于给定阈值)或达到最大迭代次数。

最终,鲍姆-韦尔奇算法通过迭代优化参数,使得隐马尔可夫模型的参数逼近最优值,从而更好地描述观测数据的生成过程。

六、HMM模型API介绍

1.API的安装
pip3 install hmmlearn
2.hmmlearn介绍

hmmlearn实现了三种HMM模型类,按照观测状态是连续状态还是离散状态,可分为两类。

GaussianHMM 和 GMMHMM 是连续观测状态的 HMM 模型,而 MultinomialHMM 和 CategoricalHMM 是离散观测状态的模型,也是我们在HMM原理系列篇里使用的模型。

对于 CategoricalHMM 的模型,使用比较简单,文章来源地址https://www.toymoban.com/news/detail-474203.html

  • “startprob_”:对应我们的隐藏状态初始分布 π。
  • “transmat_”:对应状态转移矩阵A。
  • “emissionprob_”:对应观测状态概率矩阵B。
  • “n_features”:观测序列的种类
3.CategoricalHMM 代码实例
import numpy as np
from hmmlearn import hmm

# 设定隐藏状态的集合
states = ["box1", "box2", "box3"]
n_states = len(states)

# 设定观测状态的集合
observations = ["red", "white"]
n_observations = len(observations)

# 设定初始状态概率分布 π
start_probability = np.array([0.2, 0.4, 0.4])

# 设定隐藏状态转移矩阵 A
transition_probability = np.array([
    [0.5, 0.2, 0.3],
    [0.3, 0.5, 0.2],
    [0.2, 0.3, 0.5]])

# 设定观测状态概率矩阵 B
emission_probability = np.array([
    [0.5, 0.5],
    [0.4, 0.6],
    [0.7, 0.3]])

# 设定参数模型
model = hmm.CategoricalHMM(n_components=n_states)

# 设定初始状态概率分布
model.startprob_ = start_probability

# 设定隐藏状态转移矩阵A
model.transmat_ = transition_probability

# 设定观测状态概率矩阵B
model.emissionprob_ = emission_probability

# 设定观测序列的种类
model.n_features = n_observations

# 设定观测序列,根据维特比算法解码隐藏状态序列
seen = np.array([[0, 1, 0, 1, 1]]).T

# 将观测序列转化成 red white 形式
tran_seen = [observations[x] for x in seen.flatten()]
tran_seen = ",".join(tran_seen)
print("球的观测序列为:\n",tran_seen)

# 维特比模型训练,解码隐藏状态序列
box = model.predict(seen)
tran_box = ",".join([states[x] for x in box])
print("盒子最可能的隐藏状态序列为:\n",tran_box)

到了这里,关于EM算法和HMM模型的介绍的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 生成模型相关算法:EM算法步骤和公式推导

    EM 算法是一种选代算法,1977 年 Dempster 等人总结提出,用于含有隐变量(hidden variable)的概率模型参数的极大似然估计,或极大后验概率估计EM算法的每次选代由两步组成:E步,求期望 (expectation);M步,求极大(maximization)所以这一算法称为期望极大算法(expectation maximizationalgorithm),

    2024年02月14日
    浏览(39)
  • 高斯混合模型(GMM)及EM算法---MATLAB程序

            大家喜欢的话记得关注、点赞、收藏哦~         高斯混合模型(Gaussian Mixed Model,GMM) 是由多个高斯分布函数组成的线性组合。理论上,GMM可以拟合出任意类型的分布,通常用于解决同一集合下的数据包含多个不同分布的情况。---转自:http://t.csdn.cn/SPEcN      

    2024年02月11日
    浏览(42)
  • 【大道至简】机器学习算法之隐马尔科夫模型(Hidden Markov Model, HMM)详解(2)---计算问题:前向算法和后向算法原理详解公式推导及Python实现

    ☕️ 本文系列文章汇总: (1)HMM开篇:基本概念和几个要素 (2)HMM计算问题:前后向算法 (3)HMM学习问题:Baum-Welch算法 (4) HMM预测问题:维特比算法 ☕️ 本文来自专栏: 大道至简之机器学习系列专栏 ❤️各位小伙伴们关注我的大道至简之机器学习系列专栏,一起学

    2024年02月05日
    浏览(49)
  • 隐马尔可夫模型HMM学习备忘

    隐马尔可夫模型示意图如图[1]: 隐含状态转换关系示意图: 1、马尔可夫模型的理解 包含 N N N 个状态的系统,马尔可夫过程是状态 S i S_i S i ​ (在此 q t q_t q t ​ 为状态 S i S_i S i ​ 在时间 t t t 的状态变量)变化转移过程,状态转移依赖前 p 个状态,与其他时刻状态无关,称

    2024年02月10日
    浏览(42)
  • 机器学习基础 HMM模型(隐马尔科夫)

    推荐参考:https://juejin.cn/post/6844903891834781703 在机器学习算法中,马尔可夫链(Markov chain)是个很重要的概念。马尔可夫链(Markov chain),又称离散时间马尔可夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫(俄语:Андрей Андреевич Марков)得名。 马尔科

    2024年02月02日
    浏览(71)
  • 【机器学习】马尔可夫链与隐马尔可夫模型(HMM)

            马尔可夫链(Markov chain),又称离散时间马尔可夫链(discrete-time Markov chain),因俄国数学家安德烈·马尔可夫(A.A.Markov)得名。描述的是状态空间中经过从一个状态到另一个状态的转换的 随机过程 。该过程要求具备“无记忆”的性质: 下一状态的概率分布只能

    2024年02月13日
    浏览(45)
  • .【机器学习】隐马尔可夫模型(Hidden Markov Model,HMM)

    概率图模型是一种用图形表示概率分布和条件依赖关系的数学模型。概率图模型可以分为两大类:有向图模型和无向图模型。有向图模型也叫贝叶斯网络,它用有向无环图表示变量之间的因果关系。无向图模型也叫马尔可夫网络,它用无向图表示变量之间的相关关系。概率图

    2024年01月22日
    浏览(38)
  • 机器学习---HMM前向、后向和维特比算法的计算

    1. HMM 隐马尔可夫模型是一个统计模型,用于描述由隐藏的状态序列和对应的观测序列组成的系统。在这 个模型中,隐藏的状态是无法直接观测到的,而只能通过观测序列来进行推断。 前向算法(Forward Algorithm):前向算法用于计算在给定观测序列下每个时间步长处于特定状态

    2024年02月20日
    浏览(33)
  • HMM理论学习笔记-隐马尔可夫模型的三个元素、假设和问题

    初学HMM之前,先回忆一下概率论、信息论中学到的一些离散型随机变量的基本公式和概念,势必有助于后续公式推导的理解。 条件概率 条件概率表示在条件Y=b成立的情况下,X=a的概率。 A,B相互独立时, P ( B ∣ A ) = P ( B ) , P ( A ∣ B ) = P ( A ) P(B|A)=P(B),P(A|B)=P(A) P ( B ∣ A

    2024年02月01日
    浏览(44)
  • 【大道至简】机器学习算法之EM算法(Expectation Maximization Algorithm)详解(附代码)---通俗理解EM算法。

    ☕️ 本文来自专栏:大道至简之机器学习系列专栏 🍃本专栏往期文章:逻辑回归(Logistic Regression)详解(附代码)---大道至简之机器学习算法系列——非常通俗易懂!_尚拙谨言的博客-CSDN博客_逻辑回归代码 ❤️各位小伙伴们关注我的大道至简之机器学习系列专栏,一起学习各大

    2024年02月06日
    浏览(44)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包