【机器学习】支持向量机(上)

这篇具有很好参考价值的文章主要介绍了【机器学习】支持向量机(上)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

支持向量机(上)





一、导言


支持向量机作为传统机器学习算法中的霸主,其背后的数学知识是相当复杂且精密的。对于每个学习机器学习的同学而言,理解并掌握支持向量机的思路对于认识和学习其他算法也会起到非常巨大的推动作用。遗憾的是,鲜有博客能真正说清楚它的美妙之处,这也包括一些高校的老师。要么卡在 KKT 条件,要么说不清什么是对偶问题。为此,我花了几周的时间来对这些知识进行梳理和整合,在参考大量文献和相关博文后,最终完成了本文。由于这一章的内容过多,因此将该文分为上下两节。第一节主要是讲解支持向量机的数学推导过程,第二节则是对支持向量机涉及到的核函数、软间隔等问题进行讨论分析。

本文将通过严密的数学推导,以最简单易懂的例子来对支持向量机进行剖析,带领大家完整细致地理解传统机器学习算法中最厉害的算法——支持向量机。



二、何为支持向量机


支持向量机(Support Vector Machine, SVM)是一类按监督学习方式对数据进行二元分类的广义线性分类器,其决策边界是对学习样本求解的最大边距超平面。假设存在样本集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x n , y n ) } , x i = [ x 1 ( i ) , x 2 ( i ) , … , x m ( i ) ] T D=\{(\text{x}_1,y_1),(\text{x}_2,y_2),…,(\text{x}_n,y_n)\}, \text{x}_i=[x_1^{(i)},x_2^{(i)},…,x_m^{(i)}]^T D={(x1,y1),(x2,y2),,(xn,yn)},xi=[x1(i),x2(i),,xm(i)]T,其中 n n n 表示数据集规格, m m m 表示数据集的特征维度。则支持向量机的核心思想就是基于训练集 𝐷 在样本空间中寻找一个划分超平面 ψ \psi ψ,使得 ψ \psi ψ 能将不同类别的样本分开。但能将训练样本分开的超平面可能有很多,如下图所示,哪一个才是我们最需要的昵?

【机器学习】支持向量机(上),机器学习,机器学习,支持向量机,KKT条件,对偶问题,拉格朗日乘数法
直观上看,应该是位于两类训练样本 “正中间” 的划分超平面(即上图中的绿色线条),因为该划分超平面对训练样本局部扰动的 “容忍性” 最好。例如,由于训练集的局限性或噪声的因素,训练集之外的样本可能比该图中的训练样本更接近两个类的分隔界,这将使许多划分超平面出现错误,而绿色的划分超平面受影响最小。换言之,这个划分超平面所产生的分类结果是最稳定的,对未见示例的泛化能力最强。

那要如何才能确定一个分类效果最好的划分超平面呢?
Vapnik 提出了一种方法:对每个可能的超平面,将它进行平移,直到它与空间中的样本向量相交(我们称这两个向量为支持向量)。之后我们计算支持向量到该划分超平面的距离 d d d,分类效果最好的划分超平面应该使 d d d 最大。

【机器学习】支持向量机(上),机器学习,机器学习,支持向量机,KKT条件,对偶问题,拉格朗日乘数法




三、点到平面的距离计算


距离 d d d 的计算本质上就是点到平面的距离计算。下面我们先讨论如何计算点到平面的距离。

假设存在一个平面 ψ : w T x + b = 0 \psi:\text{w}^T\text{x}+b=0 ψ:wTx+b=0,则 w = [ w 1 , w 2 , … , w m ] T \text{w}=[w_1,w_2,…,w_m]^T w=[w1,w2,,wm]T 为该平面的法向量, b b b 为位移项(决定了超平面与原点之间的距离)。
为什么说 w \text{w} w 是该平面的法向量?假设该平面中存在两个数据点 x 1 = [ x 1 ( 1 ) , x 2 ( 1 ) , … , x m ( 1 ) ] T , x 2 = [ x 1 ( 2 ) , x 2 ( 2 ) , … , x m ( 2 ) ] T \text{x}_1=[x_1^{(1)}, x_2^{(1)},…,x_m^{(1)}]^T, \text{x}_2=[x_1^{(2)}, x_2^{(2)},…,x_m^{(2)}]^T x1=[x1(1),x2(1),,xm(1)]T,x2=[x1(2),x2(2),,xm(2)]T,则有:

{ w T x 1 + b = 0 w T x 2 + b = 0 \begin{align*} \left \{ \begin{array}{ll} \text{w}^T\text{x}_1+b=0\\ \text{w}^T\text{x}_2+b=0\\ \end{array} \right. \end{align*} {wTx1+b=0wTx2+b=0

由于 w \text{w} w 为向量, x 1 − x 2 x_1−x_2 x1x2 可表示该平面中的任意向量,且 ( w T x 1 + b ) − ( w T x 2 + b ) = w T ( x 1 − x 2 ) = 0 (\text{w}^T\text{x}_1+b)-(\text{w}^T\text{x}_2+b)=\text{w}^T(\text{x}_1-\text{x}_2)=0 (wTx1+b)(wTx2+b)=wT(x1x2)=0。因此说 w w w 是该平面的法向量。
现假设我们要计算某个样本点 x x x 到平面 ψ \psi ψ 的距离 d i s t ( x , ψ ) dist(\text{x},\psi) dist(x,ψ) ,此时,可过点 x x x 向平面 ψ \psi ψ 作垂线(交点为 p \text{p} p),则 d i s t ( x , ψ ) dist(\text{x},\psi) dist(x,ψ) 。也就是说,距离 d i s t ( x , ψ ) dist(\text{x},\psi) dist(x,ψ) 就等于垂线段 xp \text{xp} xp 的长度。

【机器学习】支持向量机(上),机器学习,机器学习,支持向量机,KKT条件,对偶问题,拉格朗日乘数法

但要如何计算这个长度呢?我们知道,对于欧氏空间中的任意向量 α → \overrightarrow{\alpha} α ,若将该向量与某个方向的单位方向向量进行点乘(内积),就能得到该向量在指定方向上的长度。例:存在向量 α → = ( 3 , 4 , 5 ) \overrightarrow{\alpha}=(3,4,5) α =(3,4,5) ,则向量 α → \overrightarrow{\alpha} α 在方向 n → = ( 1 , 1 , 1 ) \overrightarrow{n}=(1,1,1) n =(1,1,1) 上的长度为:

∣ α → ⋅ n 0 → ∣ = ∣ α → ⋅ n → ∣ n → ∣ ∣ = ∣ ( 3 , 4 , 5 ) ⋅ ( 1 , 1 , 1 ) ∣ ( 1 , 1 , 1 ) ∣ ∣ = ∣ 3 × 1 + 4 × 1 + 5 × 1 ∣ 3 = 12 3 = 4 3 \left|\overrightarrow{\alpha}·\overrightarrow{n_0}\right| =\left|\overrightarrow{\alpha}·\frac{\overrightarrow{n}}{\left|\overrightarrow{n}\right|}\right| =\left|(3,4,5)·\frac{(1,1,1)}{\left|(1,1,1)\right|}\right| =\frac{\left| 3\times1+4\times1+5\times1 \right|}{\sqrt{3}} =\frac{12}{\sqrt{3}} =4\sqrt{3} α n0 = α n n = (3,4,5)(1,1,1)(1,1,1) =3 3×1+4×1+5×1=3 12=43

由于平面 ψ \psi ψ 的法向量 w w w 正是其垂线,因此,若在平面 ψ \psi ψ 中任选一个数据点 x ′ \text{x}^{'} x,并基于这两点构建向量 α → = x − x ′ \overrightarrow{\alpha}=\text{x}-\text{x}^{'} α =xx,则点 x \text{x} x 到指定平面 ψ \psi ψ 的距离为:

d i s t ( x , ψ ) = ∣ α → ⋅ w 0 ∣ = ∣ ( x − x ′ ) ⋅ w ∣ w ∣ ∣ = ∣ w T ∣ w ∣ ( x − x ′ ) ∣ = ∣ w T x − w T x ′ ∣ ∣ w ∣ = 1 ∣ w ∣ ∣ ( w T x + b ) ∣ dist(\text{x},\psi) = \left| \overrightarrow{\alpha}·w_0 \right| = \left| \left(\text{x}-\text{x}^{'}\right)·\frac{w}{|w|} \right| = \left| \frac{w^T}{|w|}\left(\text{x}-\text{x}^{'}\right) \right| = \frac{|w^T\text{x}-w^T\text{x}^{'}|}{|w|} = \frac{1}{|w|}\left| \left( w^T\text{x}+b \right) \right| dist(x,ψ)= α w0 = (xx)ww = wwT(xx) =wwTxwTx=w1 (wTx+b)

上式含有绝对值,这会给后续的计算带来麻烦,因此需要想办法处理。

注意到一件事:对于某个决策方程(即划分超平面的方程): y ( x ) = w T Φ ( x ) + b y(\text{x})=w^T\Phi(\text{x})+b y(x)=wTΦ(x)+b Φ ( x ) \Phi(\text{x}) Φ(x) 是对输入数据 x \text{x} x 做了某种变换,后面会解释),当把某个样本点 x i \text{x}_i xi 带入时, y ( x ) y(\text{x}) y(x) 总有以下 3 类取值:

{ y ( x ) < 0 , 样本点在划分超平面之下(视为负例) y ( x ) = 0 , 样本点在划分超平面之内 y ( x ) > 0 , 样本点在划分超平面之上(视为正例) \begin{align*} \left \{ \begin{array}{ll} y(\text{x})<0 , \hspace{1em} 样本点在划分超平面之下(视为负例)\\ y(\text{x})=0 , \hspace{1em} 样本点在划分超平面之内 \\ y(\text{x})>0 , \hspace{1em} 样本点在划分超平面之上(视为正例)\\ \end{array} \right. \end{align*} y(x)<0,样本点在划分超平面之下(视为负例)y(x)=0,样本点在划分超平面之内y(x)>0,样本点在划分超平面之上(视为正例)

因此,对于样本集 D = { ( x 1 , y 1 ) , ( x 2 , y 2 ) , … , ( x n , y n ) } D=\{(\text{x}_1,y_1),(\text{x}_2,y_2),…,(\text{x}_n,y_n)\} D={(x1,y1),(x2,y2),,(xn,yn)} 而言,若规定数据标签 y i ∈ { − 1 , 1 } y_i \in \{−1,1\} yi{1,1} 。则可将样本点 x i \text{x}_i xi 到指定划分超平面 ψ \psi ψ 的距离 d d d 表示为:

d = y i × ( α → ⋅ w 0 ) = y i × ( ( x i − x ′ ) ⋅ w ∣ w ∣ ) = y i × ( w T ∣ w ∣ ( x i − x ′ ) ) = y i × ( w T x i − w T x ′ ∣ w ∣ ) = y i ∣ w ∣ ( w T x i + b ) d=y_i \times \left( \overrightarrow{\alpha}·w_0 \right) =y_i \times \left( \left( \text{x}_i-\text{x}^{'} \right)·\frac{w}{|w|} \right) =y_i \times \left( \frac{w^T}{|w|}\left( \text{x}_i-\text{x}^{'} \right) \right) =y_i \times \left( \frac{w^T\text{x}_i-w^T\text{x}^{'}}{|w|}\right) =\frac{y_i}{|w|}\left( w^T\text{x}_i+b \right) d=yi×(α w0)=yi×((xix)ww)=yi×(wwT(xix))=yi×(wwTxiwTx)=wyi(wTxi+b)

上式通过额外添加绝对值为 1 的标签值 y i y_i yi 来巧妙地消除了原始 d i s t ( x , ψ ) dist(\text{x},\psi) dist(x,ψ) 为负的情况,从而将绝对值去掉(此时,负例的标签为 − 1 -1 1;正例的标签为 + 1 +1 +1)。根据这个距离公式,我们可以进一步构建目标函数。




四、构建目标函数(支持向量机的基本型推导)


前面说到:在给定数据集中,支持向量到划分超平面的距离越大,这样的超平面效果越好。这里有两个关键点:

  1. 支持向量到划分超平面的距离(所有样本点中距离划分超平面最近的数据点),即 m i n ( x i , y i ) ∈ D y i ∣ w ∣ ( w T x i + b ) min_{(\text{x}_i,y_i) \in D}\frac{y_i}{|w|}\left(w^T\text{x}_i+b\right) min(xi,yi)Dwyi(wTxi+b)
  2. 该距离尽可能远,即 m a x w , b { m i n ( x i , y i ) ∈ D y i ∣ w ∣ ( w T x i + b ) } max_{w,b}\left\{min_{(\text{x}_i,y_i) \in D}\frac{y_i}{|w|}\left(w^T\text{x}_i+b\right)\right\} maxw,b{min(xi,yi)Dwyi(wTxi+b)}

这便是我们所需要优化的目标函数,由于该式过于复杂,接下来我们讨论如何对其进行进一步化简。

若假设超平面 ψ \psi ψ 能将训练样本正确分类,即对于任意 ( x i , y i ) ∈ D (\text{x}_i,y_i) \in D (xi,yi)D,若 y i = − 1 y_i= −1 yi=1,则有 w T x i + b < 0 w^T\text{x}_i+b<0 wTxi+b<0;若 y i = + 1 y_i= +1 yi=+1,则有 w T x i + b > 0 w^T\text{x}_i+b>0 wTxi+b>0。则总存在放缩变换 v = ξ w v=\xi w v=ξw ,使下式成立:

{ v T x i + b ≤ − 1 , y i = − 1 v T x i + b ≥ 1 , y i = 1 \begin{align*} \left \{ \begin{array}{ll} v^T\text{x}_i+b \leq -1 , \hspace{1em} y_i=-1\\ v^T\text{x}_i+b \geq 1 , \hspace{2em} y_i=1\\ \end{array} \right. \end{align*} {vTxi+b1,yi=1vTxi+b1,yi=1

显然,使上式等号成立的正是支持向量,此时取 w = v w=v w=v ,则支持向量到划分超平面的距离为:

m i n ( x i , y i ) ∈ D y i ∣ w ∣ ( w T x i + b ) = 1 ∣ w ∣ min_{(\text{x}_i,y_i) \in D}\frac{y_i}{|w|}\left(w^T\text{x}_i+b\right)=\frac{1}{|w|} min(xi,yi)Dwyi(wTxi+b)=w1

【机器学习】支持向量机(上),机器学习,机器学习,支持向量机,KKT条件,对偶问题,拉格朗日乘数法

所以,两个异类支持向量到超平面的距离之和 d d d 2 ∣ w ∣ \frac{2}{|w|} w2,它也被称为 “间隔”。
于是,欲找到具有 “最大间隔(maximum margin)” 的划分超平面,也就是要找能使 2 ∣ w ∣ \frac{2}{|w|} w2 最大的 𝑤, 𝑏 ,即(𝑠.𝑡. 表示 𝑠𝑢𝑏𝑗𝑒𝑐𝑡 𝑡𝑜 ,表示 “受限于” 的意思):

m a x w , b 2 ∣ w ∣ s . t . y i ( w T x i + b ) ≥ 1 i = 1 , 2 , … , n \begin{align*} &max_{w,b}\frac{2}{|w|} \\ &s.t. \hspace{1em} y_i\left( w^T\text{x}_i+b \right) \geq1 \hspace{1em} i=1,2,…,n \end{align*} maxw,bw2s.t.yi(wTxi+b)1i=1,2,,n

不难看出,最大化间隔问题其实就是一个凸二次规划问题。
所有机器学习算法的设计都无外乎一种固定模式:问题分析,问题抽象,提出数学问题,构建目标函数,执行最优化。在构建目标函数时,我们通常希望将其描述为一个求解最小值的方程,支持向量机也是如此。显然,最大化间隔 2 ∣ w ∣ \frac{2}{|w|} w2,仅需要最大化 ∣ w ∣ − 1 |w|^{-1} w1,这
等价于最小化 ∣ w ∣ |w| w 。于是上式可写为(对于原始式子中的常系数,可以任意置换而不影响极值点):

m i n w , b 1 2 ∣ w ∣ s . t . y i ( w T x i + b ) ≥ 1 i = 1 , 2 , … , n \begin{align*} &min_{w,b}\frac12|w| \\ &s.t. \hspace{1em} y_i\left( w^T\text{x}_i+b \right) \geq1 \hspace{1em} i=1,2,…,n \end{align*} minw,b21ws.t.yi(wTxi+b)1i=1,2,,n

为消去式中的求模运算,可将其进一步改写为:

m i n w , b 1 2 w 2 s . t . y i ( w T x i + b ) ≥ 1 i = 1 , 2 , … , n \begin{align*} &min_{w,b}\frac12w^2 \\ &s.t. \hspace{1em} y_i\left( w^T\text{x}_i+b \right) \geq1 \hspace{1em} i=1,2,…,n \end{align*} minw,b21w2s.t.yi(wTxi+b)1i=1,2,,n

这便是支持向量机的基本型。
下面我们讨论如何求解该目标函数。




五、利用 KKT 条件对目标函数进行转换


对于最优化问题,可进行一个简单分类:

  • 无约束优化问题:直接求导、最速下降法、共轭梯度法、牛顿法等。
  • 等式约束优化问题:消元法、拉格朗日(Lagrange)乘数法。
  • 不等式约束优化问题:KKT条件。

1、拉格朗日乘数法的引入

由于目标函数存在约束条件: y i ( w T x i + b ≥ 1 ) y_i\left( w^T\text{x}_i+b \geq1 \right) yi(wTxi+b1),这不免使我们想到 消元法拉格朗日乘数法。消元法比较简单不再赘述,这里主要提一下拉格朗日乘数法,因为后面提到的 KKT 条件正是对拉格朗日乘子法的一种泛化。拉格朗日乘数法(以数学家约瑟夫·路易斯·拉格朗日命名)是一种寻找变量受一个或多个条件所限制的多元函数的极值的方法。这种方法将一个有 n n n 个变量与 k k k 个约束条件的最优化问题转换为一个有 n + k n+k n+k 个变量的方程组的极值问题,其变量不受任何约束。这种方法引入了一种新的标量未知数,即拉格朗日乘数:约束方程梯度(gradient)的线性组合里每个向量的系数(简单来说:这个系数是为了强制要求所有的不等式条件被满足)。

若给定二元函数 z = f ( x , y ) z=f(x,y) z=f(x,y) 和约束条件 ϕ ( x , y ) = 0 \phi(x,y)=0 ϕ(x,y)=0,为寻找 z = f ( x , y ) z=f(x,y) z=f(x,y) 在约束条件下的极值点,先做拉格朗日函数:

F ( x , y , λ ) = f ( x , y ) + λ ϕ ( x , y ) F(x,y,\lambda)=f(x,y)+\lambda\phi(x,y) F(x,y,λ)=f(x,y)+λϕ(x,y)

其中 λ \lambda λ 为参数( λ ≠ 0 \lambda \neq 0 λ=0 ,为拉格朗日乘数)。接下来令 F ( x , y , λ ) F(x,y,\lambda) F(x,y,λ) 分别对 x x x y y y λ \lambda λ 求一阶偏导数,并取偏导为零,即:

{ F x ′ ( x , y , λ ) = f x ′ ( x , y ) + λ ϕ x ′ ( x , y ) = 0 F y ′ ( x , y , λ ) = f y ′ ( x , y ) + λ ϕ y ′ ( x , y ) = 0 F λ ′ ( x , y , λ ) = ϕ x ( x , y ) = 0 \begin{align*} \left \{ \begin{array}{ll} F_x{'}(x,y,\lambda)=f_x^{'}(x,y)+\lambda \phi_x^{'}(x,y)=0\\ F_y{'}(x,y,\lambda)=f_y^{'}(x,y)+\lambda \phi_y^{'}(x,y)=0\\ F_{\lambda}{'}(x,y,\lambda)=\phi_x(x,y)=0\\ \end{array} \right. \end{align*} Fx(x,y,λ)=fx(x,y)+λϕx(x,y)=0Fy(x,y,λ)=fy(x,y)+λϕy(x,y)=0Fλ(x,y,λ)=ϕx(x,y)=0

得到:

{ f x ′ ( x , y ) = − λ ϕ x ′ ( x , y ) f y ′ ( x , y ) = − λ ϕ y ′ ( x , y ) ϕ x ( x , y ) = 0 \begin{align*} \left \{ \begin{array}{ll} f_x^{'}(x,y)=-\lambda \phi_x^{'}(x,y)\\ f_y^{'}(x,y)=-\lambda \phi_y^{'}(x,y)\\ \phi_x(x,y)=0\\ \end{array} \right. \end{align*} fx(x,y)=λϕx(x,y)fy(x,y)=λϕy(x,y)ϕx(x,y)=0

由上述方程组可解出 x x x y y y λ \lambda λ,如此求得的 x , y x, y x,y ,就是函数 z = f ( x , y ) z=f(x,y) z=f(x,y) 在约束条件 ϕ ( x , y ) = 0 \phi(x,y)=0 ϕ(x,y)=0 下可能的极值点(可将函数 z = f ( ⋅ ) z=f(·) z=f() 推广至任意维度)。若这样的点只有一个,则由实际问题可直接认为此点即为所求。

需要注意的是,消元法或拉格朗日乘数法,其求解目标方程的约束条件通常是等式,不等式情况在低维情况下可以计算(比如二维时,最优解通常在图形的边缘处),但是维度一旦变高,就非常难解了。而这里的目标函数的约束条件为 y i ( w T x i + b ≥ 1 ) y_i\left( w^T\text{x}_i+b \geq1 \right) yi(wTxi+b1) ,是一个不等式,并且在讨论通解时我们肯定要视目标数据集为高维数据。因此对 SVM 的标准型求解需要用到 KKT 条件(由发现它的三个科学家的名字命名:Karush-Kuhn-Tucker)来进行求解。

2、KKT 条件的引入

为便于讲解,设目标函数为 f ( x 1 , x 2 ) f(x_1,x_2) f(x1,x2) (现实情况下该函数可为任意维度),不等式约束为 g ( x 1 , x 2 ) g(x_1,x_2) g(x1,x2) ,有的情况下还存在等式约束 h ( x 1 , x 2 ) h(x_1,x_2) h(x1,x2) 。此时,带约束的优化问题描述如下:

m i n f ( x 1 , x 2 ) s . t . h ( x 1 , x 2 ) = 0 g ( x 1 , x 2 ) ≤ 0 \begin{align*} &min \hspace{2px} f(x_1,x_2) \\ &s.t. \hspace{0.5em} h(x_1,x_2)=0 \\ &\hspace{2em} g(x_1,x_2) \leq 0 \end{align*} minf(x1,x2)s.t.h(x1,x2)=0g(x1,x2)0

在运用 KKT 条件求解时,上式中的等式约束 h ( x 1 , x 2 ) h(x_1,x_2) h(x1,x2) 与在拉格朗日数乘法中的处理方式一致,为便于讲解,下面假设仅含无等式约束,即问题为:

m i n f ( x 1 , x 2 ) s . t . g ( x 1 , x 2 ) ≤ 0 \begin{align*} &min \hspace{2px} f(x_1,x_2) \\ &s.t. \hspace{0.5em} g(x_1,x_2) \leq 0 \\ \end{align*} minf(x1,x2)s.t.g(x1,x2)0

实际上,不等式约束 g ( x 1 , x 2 ) g(x_1,x_2) g(x1,x2) 所围成区域即为目标函数的可行区(取值范围)。由于 g ( x 1 , x 2 ) g(x_1,x_2) g(x1,x2) 有可能是非线性函数,此时可行区不能确保是凸集;即使是凸集,该凸集也有可能含无数个极点,故此时不能像传统方法那样迭代每个极点以获得极值。注意到可行区与目标函数的定义域位置关系主要有以下两种情形:

情形一:目标函数( y = f ( x 1 , x 2 ) = x 1 2 + x 2 2 − 10 y=f(x_1,x_2)=x_1^2+x_2^2-10 y=f(x1,x2)=x12+x2210 )的全局最小点在可行区内,如下图所示(在 x 1 O x 2 x_1Ox_2 x1Ox2 平面上的投影):

【机器学习】支持向量机(上),机器学习,机器学习,支持向量机,KKT条件,对偶问题,拉格朗日乘数法

红色环线代表目标函数的等值线,灰色空间代表了不等式 x 1 + x 2 ≤ 2 x_1+x_2 \leq 2 x1+x22 约束限定的可行区,这种情形直接用梯度法求解目标函数即可获得极值(极值点为 ( 0 , 0 ) (0,0) (0,0) ,取到极小值 − 10 -10 10)。此时,约束条件不起任何作用(KKT条件不是专门针对这种情形)。

情形二:目标函数的全局最小点不在可行区内,如下图所示(在 𝑥1𝑂𝑥2 面上的投影) :

【机器学习】支持向量机(上),机器学习,机器学习,支持向量机,KKT条件,对偶问题,拉格朗日乘数法

观察图像可以发现,目标函数等值线与约束边界相切时得到极值点(极值点为 ( − 2 , − 2 ) (-\sqrt{2},-\sqrt{2}) (2 ,2 ) ,取得极小值 − 6 −6 6 )。与等式约束条件一样,此处目标函数 f ( x 1 , x 2 ) f(x_1,x_2) f(x1,x2) 的梯度与边界函数 g ( x 1 , x 2 ) g(x_1,x_2) g(x1,x2) 梯度有如下关系(梯度 g r a d grad grad 通常用 ∇ \nabla 来表示):

∇ f ( x 1 , x 2 ) = − λ ∇ ( x 1 , x 2 ) λ ≥ 0 \nabla f(x_1,x_2)=-\lambda \nabla(x_1,x_2) \hspace{1em} \lambda \geq 0 f(x1,x2)=λ(x1,x2)λ0

实际上,目标函数 f ( x 1 , x 2 ) f(x_1,x_2) f(x1,x2) 梯度指向函数增大方向,即指向可行区内;而在可行区内,约束函数 g ( x 1 , x 2 ) g(x_1,x_2) g(x1,x2) 的梯度指向可行区域外。因此,在这情况下(求目标函数最小值时), f ( x 1 , x 2 ) f(x_1,x_2) f(x1,x2) 的梯度与约束函数 g ( x 1 , x 2 ) g(x_1,x_2) g(x1,x2) 的梯度方向正好相反。但如果不等式约束是 x 1 + x 2 ≥ − 2 2 x_1+x_2 \geq -2\sqrt{2} x1+x222 ,则两个梯度朝向一个方向。这样的情况在求目标函数的最大值时则正好相反。基于此,为限定梯度系数 λ \lambda λ 在公式里恒正,我们规定:对目标函数求极小值时,总是使不等式约束为小于等于( ≤ );对目标函数求极大值时,则让不等式约束为大于等于( ≥ )。若以仅含一个不等式约束的情形为例,最小化和最大化的优化问题可分别整理成如下形式:

极小值
m i n f ( X ) s . t . g ( X ) ≤ 0 \begin{align*} &min \hspace{2px} f(X) \\ &s.t. \hspace{0.6em} g(X) \leq 0 \\ \end{align*} minf(X)s.t.g(X)0

极大值
m i n f ( X ) s . t . g ( X ) ≥ 0 \begin{align*} &min \hspace{2px} f(X) \\ &s.t. \hspace{0.6em} g(X) \geq 0 \\ \end{align*} minf(X)s.t.g(X)0

3、松弛互补条件的引入

前面演示的是等值线与一个条件边界相切的情形(目标函数与可行区相交于一点)。当约束条件具有多个时,该点可能是多个约束边界的交点,如下图所示。

【机器学习】支持向量机(上),机器学习,机器学习,支持向量机,KKT条件,对偶问题,拉格朗日乘数法

该图中,蓝色点代表极值点,它是 g 1 ( x 1 , x 2 ) ≤ 0 , g 2 ( x 1 , x 2 ) ≤ 0 , g 3 ( x 1 , x 2 ) ≥ 0 g_1(x_1,x_2) \leq 0, g_2(x_1,x_2) \leq 0, g_3(x_1,x_2) \geq 0 g1(x1,x2)0,g2(x1,x2)0,g3(x1,x2)0 三个约束条件边界的交点,由于最值必定出现在边界上,所以不等式约束情形可以转化为等式约束的情形,则由拉格朗日乘数法表达式有:

∇ f ( x 1 , x 2 ) = − ∑ i = 1 m λ i ∇ g i ( x 1 , x 2 ) \nabla f(x_1,x_2)=-\sum_{i=1}^m\lambda_i \nabla g_i(x_1,x_2) f(x1,x2)=i=1mλigi(x1,x2)

上式中, m m m 表示不等式约束条件的个数;从前面的等式约束条件分析可知,该式代表了 n n n 个等式(这里的 n n n 为原函数 f ( x 1 , x 2 ) f(x_1,x_2) f(x1,x2) 的维度,此处为 2),而我们目标是求出 n + m n+m n+m 个变量,即变量 { x 1 , x 2 , … , x n ; λ 1 , λ 2 , … , λ m } → { x 1 ∗ , x 2 ∗ ; λ 1 , λ 2 , λ 3 } \{ x_1,x_2,…,x_n; \lambda_1,\lambda_2, … ,\lambda_m\} \rightarrow \{ x_1^*,x_2^*; \lambda_1,\lambda_2, \lambda_3\} {x1,x2,,xn;λ1,λ2,,λm}{x1,x2;λ1,λ2,λ3} ,目前方程组的方程只有 n n n 个,这显然是解不出来的。

根据最值点 p ∗ p^* p 的所在位置,可把不等式约束分为两类:一类约束的边界不是最值点的所在曲线,如上图的边界 g 2 ( x 1 , x 2 ) ≤ 0 g_2(x_1,x_2) \leq 0 g2(x1,x2)0,将最值点 p ∗ p^* p 带入后恒有 g 2 ( p ∗ ) ≤ 0 g_2(p^*) \leq 0 g2(p)0,即最终的极值点相对于 g 2 ( x 1 , x 2 ) ≤ 0 g_2(x_1,x_2) \leq 0 g2(x1,x2)0 这个约束可以自由移动一段距离而不会违反这个约束,换言之 g 2 ( x 1 , x 2 ) ≤ 0 g_2(x_1,x_2) \leq 0 g2(x1,x2)0 这个不等式相对于最值点没有起到任何约束作用。因此,这时 g 2 ( p ∗ ) ≤ 0 g_2(p^*) \leq 0 g2(p)0 对应的梯度系数 λ 2 \lambda_2 λ2 可设为 0;另一类约束的边界是最值点的所在曲线,如上图的 g 1 ( x 1 , x 2 ) ≤ 0 , g 3 ( x 1 , x 2 ) ≥ 0 g_1(x_1,x_2) \leq 0, g_3(x_1,x_2) \geq 0 g1(x1,x2)0,g3(x1,x2)0,这类约束对应的梯度系数 λ i \lambda_i λi 大于 0,但本身是边界函数,函数本身值为 0。综上所述,对于所有的不等式,无论最终是否起到约束作用,都有以下等式:

λ i g i ( x 1 , x 2 ) = 0 \lambda_ig_i(x_1,x_2)=0 λigi(x1,x2)=0

该公式也被称为互补松弛条件,得到这 m m m 个等式松弛条件后,联合前面的式子即可解出所有变量,从而得到极值( n + m n+m n+m 个变量, n + m n+m n+m 个线性无关方程,则存在唯一解)。
在不等式约束的非线性规划问题中,每一个不等式是否起到约束作用,是根据最值点位置来确定的,通过引入互补松弛条件本质是一种待定系数法。

4、总结

以上从几何角度说明了 KKT 条件在非线性规划问题中求极值点的思路,下面对其进行汇总说明。

设目标函数为 f ( X ) f(X) f(X) ,等式约束为 h i ( X ) h_i(X) hi(X) ,不等式约束条件为 g j ( X ) g_j(X) gj(X) ,此时,带约束的优化问题描述如下(以求最小值为例):

m i n f ( X ) s . t . h i ( X ) = 0 i = 1 , 2 , … , p g j ( X ) ≤ 0 j = 1 , 2 , … , q \begin{align*} &min \hspace{2px} f(X) \\ &s.t. \hspace{0.6em} h_i(X)=0 \hspace{1em} i=1,2,…,p\\ &\hspace{2em} g_j(X) \leq 0 \hspace{1em} j=1,2,…,q\\ \end{align*} minf(X)s.t.hi(X)=0i=1,2,,pgj(X)0j=1,2,,q

则可定义在不等式约束下的拉格朗日函数 L L L

L ( X , μ , λ ) = f ( X ) + ∑ i = 1 p μ i h i ( X ) + ∑ j = 1 q λ j g j ( X ) L(X,\mu,\lambda)=f(X)+\sum_{i=1}^p\mu_ih_i(X)+\sum_{j=1}^q\lambda_jg_j(X) L(X,μ,λ)=f(X)+i=1pμihi(X)+j=1qλjgj(X)

其中, μ i \mu_i μi 为第 i i i 个等式约束条件的约束系数, λ j \lambda_j λj 为第 j j j 个不等式约束条件的约束系数。
此时若要求解上述优化问题,就必须满足以下条件(即 KKT 条件):

{ ∂ L ∂ X ∣ X = X ∗ = 0 对拉格朗日函数取极值时的必要条件 μ i ≠ 0 拉格朗日系数约束(同等式情况) λ j ≥ 0 不等式约束 λ j g j ( X ∗ ) = 0 互补松弛条件 h i ( X ∗ ) = 0 原约束条件 g j ( X ∗ ) ≤ 0 原约束条件 \left\{ \begin{aligned} &\left. \cfrac{\partial L}{\partial X} \right|_{X=X^*}=0 && 对拉格朗日函数取极值时的必要条件\\ &\mu_i \neq 0 && 拉格朗日系数约束(同等式情况)\\ &\lambda_j \geq0 && 不等式约束\\ &\lambda_jg_j(X^*)=0 && 互补松弛条件\\ &h_i(X^*)=0 && 原约束条件\\ &g_j(X^*) \leq0 && 原约束条件\\ \end{aligned} \right. XL X=X=0μi=0λj0λjgj(X)=0hi(X)=0gj(X)0对拉格朗日函数取极值时的必要条件拉格朗日系数约束(同等式情况)不等式约束互补松弛条件原约束条件原约束条件

充分性、必要性说明
首先需要强调的是,KKT 条件是判断某点是极值点的必要条件,而不是充分条件。换句话说,最优解一定满足KKT条件,但KKT条件的解不一定是最优解。但如果问题是凸规划,则 KKT 条件就是充要条件。此时,只要某个点满足 KKT 条件,就一定是极值点,且得到的一定还是全局最优解




六、基于 KKT 求解目标函数


接下来继续讨论支持向量机的最大间隔问题,前面已经得到该问题的优化目标为:

m i n w , b 1 2 w 2 s . t . y i ( w T x i + b ) ≥ 1 i = 1 , 2 , … , n \begin{align*} &min_{w,b} \hspace{2px} \frac12w^2 \\ &s.t. \hspace{0.6em} y_i(w^Tx_i+b) \geq 1 \hspace{1em} i=1,2,…,n\\ \end{align*} minw,b21w2s.t.yi(wTxi+b)1i=1,2,,n

在运用 KKT 条件求解目标函数的极小值时,其不等式约束应该为“小于等于”,即:

m i n f ( X ) s . t . g ( X ) ≤ 0 \begin{align*} &min \hspace{2px} f(X)\\ &s.t. \hspace{0.6em} g(X) \leq 0 \\ \end{align*} minf(X)s.t.g(X)0

为此,可将最大间隔问题的优化目标改写为:

m i n w , b 1 2 w 2 s . t . 1 − y i ( w T x i + b ) ≤ 0 i = 1 , 2 , … , n \begin{align*} &min_{w,b} \hspace{2px} \frac12w^2 \\ &s.t. \hspace{0.6em} 1-y_i(w^Tx_i+b) \leq 0 \hspace{1em} i=1,2,…,n\\ \end{align*} minw,b21w2s.t.1yi(wTxi+b)0i=1,2,,n

这是一个含不等式约束的凸二次规划问题,一定存在全局最优解。

首先将有约束的原始目标函数转换为无约束的拉格朗日函数:

L ( w , b , λ ) = 1 2 w 2 + ∑ i = 1 n λ i ( 1 − y i ( w T x i + b ) ) = 1 2 w 2 − ∑ i = 1 n λ i ( y i ( w T x i + b ) − 1 ) \begin{align*} L(w,b,\lambda)&=\frac12w^2+\sum_{i=1}^n\lambda_i\left( 1-y_i(w^Tx_i+b) \right) \\ &=\frac12w^2-\sum_{i=1}^n\lambda_i\left(y_i(w^Tx_i+b) -1\right) \end{align*} L(w,b,λ)=21w2+i=1nλi(1yi(wTxi+b))=21w2i=1nλi(yi(wTxi+b)1)

其中, λ = { λ 1 , λ 2 , … , λ n } \lambda=\{ \lambda_1,\lambda_2 ,…,\lambda_n\} λ={λ1,λ2,,λn} 为拉格朗日乘子,分别对应样本集中的 n n n 个样本,且 λ i ≥ 0 \lambda_i \geq 0 λi0 (强制约束条件被满足)。

接下来求该函数的一阶偏导数便能得到最终所需的 w , b w, b w,b,即:

{ ∂ L ∂ w ∣ = w − ∑ i = 1 n λ i y i x i = 0 ∂ L ∂ b ∣ = ∑ i = 1 n λ i y i = 0 \left\{ \begin{aligned} &\left. \cfrac{\partial L}{\partial w} \right|=w-\sum_{i=1}^n\lambda_iy_i\text{x}_i=0\\ &\left. \cfrac{\partial L}{\partial b} \right|=\sum_{i=1}^n\lambda_iy_i=0\\ \end{aligned} \right. wL =wi=1nλiyixi=0bL =i=1nλiyi=0

解得:

{ w = ∑ i = 1 n λ i y i x i ∑ i = 1 n λ i y i = 0 \left\{ \begin{aligned} &w=\sum_{i=1}^n\lambda_iy_i\text{x}_i\\ &\sum_{i=1}^n\lambda_iy_i=0\\ \end{aligned} \right. w=i=1nλiyixii=1nλiyi=0

上式 w = ∑ i = 1 n λ i y i x i w=\sum_{i=1}^n\lambda_iy_i\text{x}_i w=i=1nλiyixi ,这表明,每次在计算 w w w 时都会遍历全部数据并执行计算。而由 ∑ i = 1 n λ i y i = 0 \sum_{i=1}^n\lambda_iy_i=0 i=1nλiyi=0 可知,遍历全部数据并执行计算时,会有很多次得到的结果都是 0 ,这无疑浪费了很多时间。实际上我们知道,决定最终划分超平面方程的仅仅是有限条(少量的)支持向量(最终可直接拍板的甚至只有 2 条),所以上面的求解方式并没有充分利用 “很多 λ i \lambda_i λi 都是 0” 的关键信息。因此这样的求解方式虽然能行,但是不够好(在数据维度不高的情形下,该方法可通过批量梯度下降的传统方式进行求解)。

为了找到更好的求解方法(一方面降低问题的求解难度,另一方面将该模型推广至数据量更大的情况),引入原问题的对偶问题。




七、对偶问题的引入


前面介绍了有约束条件的最优化问题求解,对于有约束的最优化问题,可以通过 KKT 条件把有约束的最优化问题转化成无约束的最优化问题,但是有时候直接求解 KKT 条件也很困难,甚至无法求解,这时,我们可以通过求解原问题的对偶问题来得到原问题的一个下界估计。

原问题(Prime Problem)

设目标函数为 f ( X ) f(X) f(X) ,等式约束为 h i ( X ) h_i(X) hi(X) ,不等式约束条件为 g j ( X ) g_j(X) gj(X) ,此时,带约束的优化问题描述如下(以求最小值为例):

m i n f ( X ) s . t . h i ( X ) = 0 i = 1 , 2 , … , p g j ( X ) ≤ 0 i = 1 , 2 , … , q \begin{align*} &min \hspace{2px} f(X) \\ &s.t. \hspace{0.6em} h_i(X)=0 \hspace{1em} i=1,2,…,p\\ &\hspace{2em} g_j(X) \leq 0 \hspace{1em} i=1,2,…,q\\ \end{align*} minf(X)s.t.hi(X)=0i=1,2,,pgj(X)0i=1,2,,q

则可定义原问题的拉格朗日函数 L L L

L ( X , μ , λ ) = f ( X ) + ∑ i = 1 p μ i h i ( X ) + ∑ j = 1 q λ j g j ( X ) = f ( X ) + μ T H ( X ) + λ T G ( X ) \begin{align*} L(X,\mu,\lambda)&=f(X)+\sum_{i=1}^p\mu_ih_i(X)+\sum_{j=1}^q\lambda_jg_j(X)\\ &=f(X)+\mu^TH(X)+\lambda^TG(X) \end{align*} L(X,μ,λ)=f(X)+i=1pμihi(X)+j=1qλjgj(X)=f(X)+μTH(X)+λTG(X)

对偶问题(dual problem)

m a x θ ( μ , λ ) = inf { L ( X , μ , λ ) } s . t . λ i ≥ 0 , i = 1 , 2 , … , q \begin{align*} &max \hspace{4px} \theta(\mu,\lambda)=\text{inf} \{L(X,\mu,\lambda)\} \\ &s.t. \hspace{1em} \lambda_i \geq 0, \hspace{1em} i=1,2,…,q\\ \end{align*} maxθ(μ,λ)=inf{L(X,μ,λ)}s.t.λi0,i=1,2,,q

其中, inf ( ⋅ ) \text{inf}(·) inf() 为求下确界(最小值)函数; inf { L ( X , μ , λ ) } \text{inf} \{L(X,\mu,\lambda)\} inf{L(X,μ,λ)} 表示 “在固定 μ , λ \mu, \lambda μ,λ 的前提下,遍历所有 X X X 以求 L ( X , μ , λ ) L(X,\mu,\lambda) L(X,μ,λ) 的最小值”。

1、对偶问题的性质

性质一(弱对偶定理):如果 X ∗ X^* X 是原问题的解, μ ∗ , λ ∗ \mu^*, \lambda^* μ,λ 是对偶问题的解,则 f ( X ∗ ) ≥ θ ( μ ∗ , λ ∗ ) f(X^*) \geq \theta(\mu^*,\lambda^*) f(X)θ(μ,λ)

证明

由于 h i ( X ∗ ) = 0 h_i(X^*)=0 hi(X)=0,则 μ ∗ T H ( X ∗ ) = ∑ i = 1 p μ i h i ( X ∗ ) = 0 {\mu^*}^TH(X^*)=\sum_{i=1}^p\mu_ih_i(X^*)=0 μTH(X)=i=1pμihi(X)=0
由于 g j ( X ∗ ) ≤ 0 , λ j > 0 g_j(X^*) \leq 0, \lambda_j>0 gj(X)0,λj>0,则 λ ∗ T G ( X ∗ ) = ∑ j = 1 q λ j g j ( X ∗ ) ≤ 0 {\lambda^*}^TG(X^*)=\sum_{j=1}^q\lambda_jg_j(X^*) \leq 0 λTG(X)=j=1qλjgj(X)0
所以 θ ( μ ∗ , λ ∗ ) = inf { L ( X ∗ , μ ∗ , λ ∗ ) } ≤ L ( X ∗ , μ ∗ , λ ∗ ) = f ( X ∗ ) + μ ∗ T H ( X ∗ ) + λ ∗ T G ( X ∗ ) ≤ f ( X ∗ ) \theta(\mu^*,\lambda^*)=\text{inf}\{L(X^*,\mu^*,\lambda^*)\} \leq L(X^*,\mu^*,\lambda^*)=f(X^*)+{\mu^*}^TH(X^*)+{\lambda^*}^TG(X^*) \leq f(X^*) θ(μ,λ)=inf{L(X,μ,λ)}L(X,μ,λ)=f(X)+μTH(X)+λTG(X)f(X)

性质二(强对偶定理):如果 f ( X ) f(X) f(X) 是凸函数, h ( X ) = A X + b , g ( X ) C X + d h(X)=AX+b, g(X)CX+d h(X)=AX+b,g(X)CX+d,则此优化问题的原问题与对偶问题的间距(Duality gap) G = f ( X ∗ ) − θ ( μ ∗ , λ ∗ ) = 0 G=f(X^*)-\theta(\mu^*,\lambda^*)=0 G=f(X)θ(μ,λ)=0

2、将原问题转变为对偶问题

支持向量机的原问题:

m i n w , b L ( w , b , λ ) = 1 2 w 2 − ∑ i = 1 n λ i ( y i ( w T x i + b ) − 1 ) min_{w,b} \hspace{0.5em} L(w,b,\lambda)=\frac12w^2-\sum_{i=1}^n\lambda_i\left( y_i(w^T\text{x}_i+b)-1 \right) minw,bL(w,b,λ)=21w2i=1nλi(yi(wTxi+b)1)

根据前面的讨论,可得到其对偶问题。首先定义:

θ ( λ ) = inf { L ( w , b , λ ) } = m i n X , b L ( w , b , λ ) \theta(\lambda)=\text{inf}\{ L(w,b,\lambda) \}=min_{X,b}L(w,b,\lambda) θ(λ)=inf{L(w,b,λ)}=minX,bL(w,b,λ)

则原问题的对偶问题为:

m a x λ θ ( λ ) = m i n X , b L ( w , b , λ ) s . t . λ i ≥ 0 , i = 1 , 2 , … , n \begin{align*} &max_{\lambda} \hspace{4px} \theta(\lambda)=min_{X,b} L(w,b,\lambda) \\ &s.t. \hspace{1em} \lambda_i \geq 0, \hspace{1em} i=1,2,…,n\\ \end{align*} maxλθ(λ)=minX,bL(w,b,λ)s.t.λi0,i=1,2,,n

由于目标函数 f ( w ) f(w) f(w) 是凸函数,因此根据对偶问题的性质二(强对偶定理)可知: f ( w ∗ ) = θ ( λ ∗ ) f(w^*)=\theta(\lambda^*) f(w)=θ(λ) 。其中, w ∗ w^* w 是原问题的解, λ ∗ \lambda^* λ 是对偶问题的解)。也就是说,借助拉格朗日对偶性从原算法推出的对偶算法,两者完全等价,只是求解了不同的条件极值。

接下来我们尝试对新问题进行求解:

m a x λ m i n w , b 1 2 w 2 − ∑ i = 1 n λ i ( y i ( w T x i + b ) − 1 ) s . t . λ i ≥ 0 , i = 1 , 2 , … , n \begin{align*} &max_{\lambda} \hspace{2px} min_{w,b} \hspace{2px} \frac12w^2-\sum_{i=1}^n\lambda_i\left( y_i(w^T\text{x}_i+b)-1 \right) \\ &s.t. \hspace{1em} \lambda_i \geq 0, \hspace{1em} i=1,2,…,n\\ \end{align*} maxλminw,b21w2i=1nλi(yi(wTxi+b)1)s.t.λi0,i=1,2,,n

3、求解对偶问题

第一步,求 m i n w , b L ( w , b , λ ) min_{w,b} \hspace{2px} L(w,b,\lambda) minw,bL(w,b,λ)

这一步和前面一样,先求偏导:

{ ∂ L ∂ w ∣ = w − ∑ i = 1 n λ i y i x i = 0 ∂ L ∂ b ∣ = ∑ i = 1 n λ i y i = 0 \left\{ \begin{aligned} &\left. \cfrac{\partial L}{\partial w} \right|=w-\sum_{i=1}^n\lambda_iy_i\text{x}_i=0\\ &\left. \cfrac{\partial L}{\partial b} \right|=\sum_{i=1}^n\lambda_iy_i=0\\ \end{aligned} \right. wL =wi=1nλiyixi=0bL =i=1nλiyi=0

解得:

{ w ∗ = ∑ i = 1 n λ i y i x i ∑ i = 1 n λ i y i = 0 \left\{ \begin{aligned} &w^*=\sum_{i=1}^n\lambda_iy_i\text{x}_i\\ &\sum_{i=1}^n\lambda_iy_i=0\\ \end{aligned} \right. w=i=1nλiyixii=1nλiyi=0

接下来将 w ∗ , b ∗ w^*,b^* w,b 回带目标函数(消去 w , b w,b w,b),从而将原问题转换为仅含 λ \lambda λ 的式子,即:

m a x λ m i n w , b L ( w , b , λ ) = m a x λ L ( λ ) max_{\lambda}min_{w,b} \hspace{2px} L(w,b,\lambda)=max_{\lambda}L(\lambda) maxλminw,bL(w,b,λ)=maxλL(λ)

于是有:

L ( X , μ , λ ) ∣ w ∗ , b ∗ = 1 2 w 2 − ∑ i = 1 n λ i ( y i ( w T x i + b ) − 1 ) = 1 2 w T w + ∑ i = 1 n λ i − ∑ i = 1 n λ i y i w T x i − ∑ i = 1 n λ i y i b = 1 2 w T ∑ i = 1 n λ i y i x i − w T ∑ i = 1 n λ i y i x i + ∑ i = 1 n λ i − b ∑ i = 1 n λ i y i = ∑ i = 1 n λ i − 1 2 w T ∑ i = 1 n λ i y i x i = ∑ i = 1 n λ i − 1 2 ( ∑ i = 1 n λ i y i x i ) T ∑ i = 1 n λ i y i x i = ∑ i = 1 n λ i − 1 2 ∑ i = 1 n λ i y i x i T ∑ i = 1 n λ i y i x i = ∑ i = 1 n λ i − 1 2 ∑ i = 1 n ∑ j = 1 n λ i λ j y i y j x i T x j \begin{align*} \left. L(X,\mu,\lambda) \right |_{w^*,b^*}&=\frac12w^2-\sum_{i=1}^n\lambda_i\left( y_i(w^T\text{x}_i+b)-1 \right) \\ &=\frac12w^Tw+\sum_{i=1}^n\lambda_i-\sum_{i=1}^n\lambda_iy_iw^T\text{x}_i-\sum_{i=1}^n\lambda_iy_ib \\ &=\frac12w^T\sum_{i=1}^n\lambda_iy_i\text{x}_i-w^T\sum_{i=1}^n\lambda_iy_i\text{x}_i+\sum_{i=1}^n\lambda_i-b\sum_{i=1}^n\lambda_iy_i \\ &=\sum_{i=1}^n\lambda_i-\frac12w^T\sum_{i=1}^n\lambda_iy_i\text{x}_i \\ &=\sum_{i=1}^n\lambda_i-\frac12\left(\sum_{i=1}^n\lambda_iy_i\text{x}_i\right)^T\sum_{i=1}^n\lambda_iy_i\text{x}_i \\ &=\sum_{i=1}^n\lambda_i-\frac12\sum_{i=1}^n\lambda_iy_i\text{x}_i^T\sum_{i=1}^n\lambda_iy_i\text{x}_i \\ &=\sum_{i=1}^n\lambda_i-\frac12\sum_{i=1}^n\sum_{j=1}^n\lambda_i\lambda_jy_iy_j\text{x}_i^T\text{x}_j \end{align*} L(X,μ,λ)w,b=21w2i=1nλi(yi(wTxi+b)1)=21wTw+i=1nλii=1nλiyiwTxii=1nλiyib=21wTi=1nλiyixiwTi=1nλiyixi+i=1nλibi=1nλiyi=i=1nλi21wTi=1nλiyixi=i=1nλi21(i=1nλiyixi)Ti=1nλiyixi=i=1nλi21i=1nλiyixiTi=1nλiyixi=i=1nλi21i=1nj=1nλiλjyiyjxiTxj

第二步,求 m a x λ L ( λ ) max_{\lambda} \hspace{2px} L(\lambda) maxλL(λ)

在优化问题中,我们通常倾向于求解目标函数的最小值,因此在这里将目标函数再做一个转变:

m i n λ 1 2 ∑ i = 1 n ∑ j = 1 n λ i λ j y i y j x i T x j − ∑ i = 1 n λ i s . t . ∑ i = 1 n λ i y i = 0 λ i ≥ 0 \begin{align*} &min_{\lambda} \hspace{2px} \frac12\sum_{i=1}^n\sum_{j=1}^n\lambda_i\lambda_jy_iy_j\text{x}_i^T\text{x}_j-\sum_{i=1}^n\lambda_i\\ &s.t. \hspace{1.5em} \sum_{i=1}^n\lambda_iy_i=0 \\ & \hspace{3.2em} \lambda_i \geq 0 \end{align*} minλ21i=1nj=1nλiλjyiyjxiTxji=1nλis.t.i=1nλiyi=0λi0

这便是对偶问题的最终形式。该式的求解仅涉及一个变量,且把原问题的不等式约束变为了等式约束,因此在求解时可直接采用求导法。通过对 λ \lambda λ 求导,并令其为 0,即能得到 λ \lambda λ 的值,此时再根据: w ∗ = ∑ i = 1 n λ i y i x i w^*=\sum_{i=1}^n\lambda_iy_i\text{x}_i w=i=1nλiyixi b ∗ = y j − ∑ i = 1 n λ i y i x i x j b^*=y_j-\sum_{i=1}^n\lambda_iy_i\text{x}_i\text{x}_j b=yji=1nλiyixixj ,并任选一个点即可算出划分超平面。即最终待求的划分超平面方程为:

w ∗ ⋅ x + b ∗ = ∑ i = 1 n λ i y i x i x + b ∗ = 0 w^*·\text{x}+b^*=\sum_{i=1}^n\lambda_iy_i\text{x}_i\text{x}+b^*=0 wx+b=i=1nλiyixix+b=0

进而得到分类决策函数:

f ( x ) = s i g n ( w ∗ T x + b ∗ ) = s i g n ( ∑ i = 1 n λ i y i x i x + b ∗ ) f(\text{x})=sign({w^*}^T\text{x}+b^*)=sign(\sum_{i=1}^n\lambda_iy_i\text{x}_i\text{x}+b^*) f(x)=sign(wTx+b)=sign(i=1nλiyixix+b)

其中, s i g n ( ⋅ ) sign(·) sign() 为阶跃函数。
由上式以及 b ∗ b^* b 的表达式可以知道,划分超平面与分类决策函数都只与输入向量 x \text{x} x 及其内积有关。

4、为什么要转换成对偶形式求解?

下面是原算法与对偶算法的目标方程对比:

【机器学习】支持向量机(上),机器学习,机器学习,支持向量机,KKT条件,对偶问题,拉格朗日乘数法

从上面的对比可以看出,对偶算法主要有三点改进使得决策边界的求解不再困难:文章来源地址https://www.toymoban.com/news/detail-541113.html

  1. 对偶问题将原始问题中的不等式约束转为了对偶问题中的等式约束;
  2. 充分利用了 “很多 λ i \lambda_i λi 都是 0” 这个关键信息(即 ∑ i = 1 n λ i y i = 0 \sum_{i=1}^n\lambda_iy_i=0 i=1nλiyi=0),使得求解过程更快;
  3. 方便核函数的引入(后面会详细解释);
  4. 改变了问题的复杂度。由求特征向量 w w w 转化为求比例系数 λ \lambda λ。在原始问题下,求解的复杂度与样本的维度有关,即 w w w 的维度。在对偶问题下,只与样本数量有关。



【机器学习】支持向量机(下)


END


到了这里,关于【机器学习】支持向量机(上)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 15. 机器学习 - 支持向量机

    Hi, 你好。我是茶桁。 在本节课开始呢,我给大家一份逻辑回归的练习,利用下面这个数据集做了一次逻辑回归预测心脏病的练习。 本次练习的代码在「茶桁的AI秘籍」在Github上的代码库内,数据集的获取在文末。这样做是因为我的数据集都是和百度盘同步的,很多数据集过

    2024年02月07日
    浏览(44)
  • 机器学习 -- 支持向量机

    之前尝试用knn算法尝试一个图像识别(给苹果,香蕉分类)的案例,很吃性能且准确率不佳。支持向量机(SVM)是一种广泛应用于分类和回归问题的强大监督学习算法。就很适用于这种场景。 支持向量(Support Vectors) 在支持向量机(SVM)中,支持向量是非常核心的概念。它

    2024年01月25日
    浏览(35)
  • 【机器学习】支持向量机(上)

    支持向量机作为传统机器学习算法中的霸主,其背后的数学知识是相当复杂且精密的。对于每个学习机器学习的同学而言,理解并掌握支持向量机的思路对于认识和学习其他算法也会起到非常巨大的推动作用。遗憾的是,鲜有博客能真正说清楚它的美妙之处,这也包括一些高

    2024年02月13日
    浏览(51)
  • 机器学习——支持向量机

    【说明】文章内容来自《机器学习——基于sklearn》,用于学习记录。若有争议联系删除。         支持向量机(support vector machine,SVM)是一类按监督学习方式对数据进行二元分类的广义线性分类器,其决策边界是对学习样本求解的最大边距超平面(maximum-marginhyperplane)。与逻辑

    2024年02月03日
    浏览(48)
  • 机器学习-6 支持向量机

    支持向量机(SVM)是一种基于 统计学习理论 的 监督学习 方法。 支持向量机在各个领域内的模式识别问题中都有广泛应用,包括人脸识别、文本分类、笔迹识别等。 支持向量机解决不同类型的问题: 当训练数据 线性可分 时,通过 硬间隔最大化 ,学习一个线性可分支持向

    2024年02月08日
    浏览(42)
  • 机器学习-支持向量机SVM

    在本练习中,我们将使用支持向量机(SVM)来构建垃圾邮件分类器。 我们将从一些简单的2D数据集开始使用SVM来查看它们的工作原理。 然后,我们将对一组原始电子邮件进行一些预处理工作,并使用SVM在处理的电子邮件上构建分类器,以确定它们是否为垃圾邮件。 我们要做

    2024年02月12日
    浏览(55)
  • 机器学习——支持向量机SVM

    支持向量机(SVM)是一种二类分类模型,其基本模型是在特征空间上找到最佳的分离超平面使得训练集上正负样本间隔最大,间隔最大使它有别于感知机,支持向量机也可通过核技巧使它成为非线性分类器。支持向量机的学习策略是间隔最大化,可将其转化为一个求解凸二次

    2024年01月17日
    浏览(57)
  • 【机器学习笔记】11 支持向量机

    支 持 向 量 机 是 一 类 按 监 督 学 习 ( supervisedlearning)方式对数据进行二元分类的广义线性分类器(generalized linear classifier),其决策边界是对学习样本求解的最大边距超平面(maximum-margin hyperplane) 。与逻辑回归和神经网络相比,支持向量机,在学习复杂的非线性方程时

    2024年02月19日
    浏览(35)
  • SVM(支持向量机)-机器学习

    支持向量机(Support Vector Machine,SVM) 是一种用于分类和回归分析的监督学习算法 。它属于机器学习中的一类强大而灵活的模型,广泛应用于模式识别、图像分类、自然语言处理等领域。 基本原理: SVM的基本原理是通过找到能够有效分隔不同类别的超平面来进行分类。在二维

    2024年02月03日
    浏览(52)
  • 机器学习模型之支持向量机

    支持向量机(Support Vector Machine,SVM)是一种监督学习算法,用于分类和回归分析。它是由Cortes和Vapnik于1995年提出的。SVM在解决小样本、非线性及高维模式识别中表现出许多特有的优势,并能够推广应用到函数拟合等其他机器学习问题中。 目录 一、SVM的基本概念: 二、SVM的

    2024年04月12日
    浏览(32)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包