分类目录:《深入理解机器学习》总目录
马尔可夫随机场(Markov Random Field,MRF)是典型的马尔可夫网,这是一种著名的无向图模型,图中每个结点表示一个或一组变量,结点之间的边表示两个变量之间的依赖关系。马尔可夫随机场有一组势函数(Potential Functions),亦称“因子”(Factor),这是定义在变量子集上的非负实函数,主要用于定义概率分布函数。
上图显示出一个简单的马尔可夫随机场,对于图中结点的一个子集,若其中任意两结点间都有边连接,则称该结点子集为一个“团”(Clique),若在一个团中加入另外任何一个结点都不再形成团,则称该团为“极大团(Maximal Clique);换言之,极大团就是不能被其他团所包含的团,例如,在上图中
{
x
1
,
x
2
}
\{x_1, x_2\}
{x1,x2}、
{
x
1
,
x
3
}
\{x_1, x_3\}
{x1,x3}、
{
x
2
,
x
4
}
\{x_2, x_4\}
{x2,x4}、
{
x
2
,
x
5
}
\{x_2, x_5\}
{x2,x5}、
{
x
2
,
x
6
}
\{x_2, x_6\}
{x2,x6}、
{
x
3
,
x
5
}
\{x_3, x_5\}
{x3,x5}、
{
x
5
,
x
6
}
\{x_5, x_6\}
{x5,x6}和
{
x
2
,
x
5
,
x
6
}
\{x_2, x_5, x_6\}
{x2,x5,x6}都是团,并且除了
{
x
2
,
x
5
}
\{x_2, x_5\}
{x2,x5}、
{
x
2
,
x
6
}
\{x_2, x_6\}
{x2,x6}和
{
x
5
,
x
6
}
\{x_5, x_6\}
{x5,x6}之外都是极大团;但是,因为
x
2
x_2
x2和
x
3
x_3
x3之间缺乏连接,
{
x
1
,
x
2
,
x
3
}
\{x_1, x_2, x_3\}
{x1,x2,x3}并不构成团,显然,每个结点至少出现在一个极大团中。
在马尔可夫随机场中,多个变量之间的联合概率分布能基于团分解为多个因子的乘积,每个因子仅与一个团相关,具体来说,对于
n
n
n个变量
x
=
{
x
1
,
x
2
,
⋯
,
x
n
}
x=\{x_1, x_2, \cdots, x_n\}
x={x1,x2,⋯,xn},所有团构成的集合为
C
\mathcal{C}
C,与团
Q
∈
C
Q\in\mathcal{C}
Q∈C对应的变量集合记为
x
Q
x_Q
xQ,则联合概率
P
(
x
)
P(x)
P(x)定义为:
P
(
x
)
=
1
Z
∏
Q
∈
C
ψ
Q
(
x
Q
)
P(x)=\frac{1}{Z}\prod_{Q\in\mathcal{C}}\psi_Q(x_Q)
P(x)=Z1Q∈C∏ψQ(xQ)
其中 ψ Q \psi_Q ψQ为与团 Q Q Q对应的势函数,用于对团 Q Q Q中的变量关系进行建模, Z = ∑ x ∏ Q ∈ C ψ Q ( x Q ) Z=\sum_x\prod_{Q\in\mathcal{C}}\psi_Q(x_Q) Z=∑x∏Q∈CψQ(xQ)为规范化因子,以确保 P ( x ) P(x) P(x)是被正确定义的概率,在实际应用中,精确计算 Z Z Z通常很困难,但许多任务往往并不需获得 Z Z Z的精确值显然,若变量个数较多,则团的数目将会很多(例如,所有相互连接的两个变量都会构成团),这就意味着上式会有很多乘积项,显然会给计算带来负担。注意到若团 Q Q Q不是极大团,则它必被一个极大团 Q ∗ Q^* Q∗所包含,即 x Q ⊆ x Q ∗ x_Q\subseteq x_Q^* xQ⊆xQ∗。这意味着变量 x Q x_Q xQ之间的关系不仅体现在势函数 ψ Q \psi_Q ψQ中,还体现在 ψ Q ∗ \psi_{Q^*} ψQ∗中。于是,联合概率 P ( x ) P(x) P(x)可基于极大团来定义。假定所有极大团构成的集合为 C ∗ \mathcal{C^*} C∗,则有: P ( x ) = 1 Z ∗ ∏ Q ∈ C ∗ ψ Q ( x Q ) P(x)=\frac{1}{Z^*}\prod_{Q\in\mathcal{C^*}}\psi_Q(x_Q) P(x)=Z∗1Q∈C∗∏ψQ(xQ)
如上图中
x
=
{
x
1
,
x
2
,
x
3
,
⋯
,
x
6
}
x=\{x_1, x_2, x_3, \cdots, x_6\}
x={x1,x2,x3,⋯,x6},联合概率分布
P
(
x
)
P(x)
P(x)定义为:
P
(
x
)
=
1
Z
ψ
12
(
x
1
,
x
2
)
ψ
13
(
x
1
,
x
3
)
ψ
24
(
x
2
,
x
4
)
ψ
35
(
x
3
,
x
5
)
ψ
256
(
x
2
,
x
5
,
x
6
)
P(x)=\frac{1}{Z}\psi_{12}(x_1, x_2)\psi_{13}(x_1, x_3)\psi_{24}(x_2, x_4)\psi_{35}(x_3, x_5)\psi_{256}(x_2, x_5, x_6)
P(x)=Z1ψ12(x1,x2)ψ13(x1,x3)ψ24(x2,x4)ψ35(x3,x5)ψ256(x2,x5,x6)
其中,势函数 ψ 256 ( x 2 , x 5 , x 6 ) \psi_{256}(x_2, x_5, x_6) ψ256(x2,x5,x6)定义在极大团 { x 2 . x 5 , x 6 } \{x_2. x_5, x_6\} {x2.x5,x6}上,由于它的存在,使我们不再需为团 { x 2 , x 5 } \{x_2, x_5\} {x2,x5}、 { x 2 , x 6 } \{x_2, x_6\} {x2,x6}和 { x 5 , x 6 } \{x_5, x_6\} {x5,x6}构建势函数。
在马尔可夫随机场中如何得到“条件独立性”呢?同样借助“分离”的概念,如下图所示,若从结点集
A
A
A中的结点到
B
B
B中的结点都必须经过结点集
C
C
C 中的结点,则称结点集
A
A
A和
B
B
B被结点集
C
C
C分离,
C
C
C称为“分离集(Separating Set)。对马尔可夫随机场,有全局马尔可夫性(Global Markov Property),即给定两个变量子集的分离集,则这两个变量子集条件独立。如下图,若令
A
A
A、
B
B
B和
C
C
C对应的变量集分别为
x
A
x_A
xA,
x
B
x_B
xB和
x
C
x_C
xC,则
x
A
x_A
xA和
x
B
x_B
xB在给定
x
C
x_C
xC的条件下独立,记为:
x
A
⊥
x
B
∣
x
C
x_A\bot x_B | x_C
xA⊥xB∣xC。
由全局马尔可夫性可得到两个很有用的推论:
- 局部马尔可夫性(Local Markov Property):给定某变量的邻接变量,则该变量条件独立于其他变量。形式化地说,令 V V V为图的结点集, n ( v ) n(v) n(v)为结点 v v v在图上的邻接结点, n ∗ ( v ) = n ( v ) ∪ { v } n^*(v)=n(v)\cup \{v\} n∗(v)=n(v)∪{v},则有 x v ⊥ x V \ n ∗ ( v ) ∣ n ( v ) x_v\bot x_{V\backslash n^*(v)} | n(v) xv⊥xV\n∗(v)∣n(v)
- 成对马尔可夫性(Pairwise Markov Property):给定所有其他变量,两个非邻接变量条件独立。形式化地说,令图的结点集和边集分别为 V V V和 E E E,对图中的两个结点 u u u和 v v v,若 < u , v > ∉ E <u, v>\notin E <u,v>∈/E,则 x u ⊥ x v ∣ x V \ < u , v > xu_\bot x_v | x_{V\backslash <u, v>} xu⊥xv∣xV\<u,v>
现在我们来考察马尔可夫随机场中的势函数,显然,势函数
ψ
Q
(
x
Q
)
\psi_Q(x_Q)
ψQ(xQ)的作用是定量刻画变量集
x
Q
x_Q
xQ中变量之间的相关关系,它应该是非负函数,且在所偏好的变量取值上有较大函数值,例如,假定上图的变量均为二值变量,若势函数为:
ψ
A
C
(
x
A
,
x
C
)
=
{
1.5
,
if
x
A
=
x
C
0.1
,
otherwise
ψ
B
C
(
x
B
,
x
C
)
=
{
0.2
,
if
x
B
=
x
C
1.3
,
otherwise
\psi_{AC}(x_A, x_C)=\left\{ \begin{aligned} 1.5, & \quad\text{if}\quad x_A = x_C \\ 0.1, & \quad\text{otherwise} \\ \end{aligned} \right.\\ \quad\\ \psi_{BC}(x_B, x_C)=\left\{ \begin{aligned} 0.2, & \quad\text{if}\quad x_B = x_C \\ 1.3, & \quad\text{otherwise} \\ \end{aligned} \right.
ψAC(xA,xC)={1.5,0.1,ifxA=xCotherwiseψBC(xB,xC)={0.2,1.3,ifxB=xCotherwise
则说明该模型偏好变量
x
A
x_A
xA与
x
C
x_C
xC拥有相同的取值,
x
B
x_B
xB与
x
C
x_C
xC拥有不同的取值;换言之,在该模型中
x
A
x_A
xA与
x
C
x_C
xC正相关,
x
B
x_B
xB与
x
C
x_C
xC负相关。所以,令
x
A
x_A
xA与
x
C
x_C
xC相同且
x
B
x_B
xB与
x
C
x_C
xC不同的变量值指派将取得较高的联合概率,为了满足非负性,指数函数常被用于定义势函数,即:
ψ
Q
(
x
Q
)
=
e
−
H
Q
(
x
Q
)
\psi_Q(x_Q)=e^{-H_Q(x_Q)}
ψQ(xQ)=e−HQ(xQ)
其中,
H
Q
(
x
Q
)
H_Q(x_Q)
HQ(xQ)是一个定义在变量
x
Q
x_Q
xQ上的实值函数,常见形式为:
H
Q
(
x
Q
)
=
∑
u
,
v
∈
Q
,
u
≠
v
α
u
v
x
u
x
v
+
∑
v
∈
Q
β
v
x
v
H_Q(x_Q)=\sum_{u,v\in Q,u\neq v}\alpha_{uv}x_ux_v+\sum_{v\in Q}\beta_vx_v
HQ(xQ)=u,v∈Q,u=v∑αuvxuxv+v∈Q∑βvxv
其中 α u v \alpha_{uv} αuv和 β v \beta_v βv是参数。上式中的第二项仅考虑单结点,第一项则考虑每一对结点的关系。文章来源:https://www.toymoban.com/news/detail-520304.html
参考文献:
[1] 周志华. 机器学习[M]. 清华大学出版社, 2016.文章来源地址https://www.toymoban.com/news/detail-520304.html
到了这里,关于深入理解机器学习——概率图模型(Probabilistic Graphical Model):马尔可夫随机场(Markov Random Field,MRF)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!