西瓜书公式(10.24)的推导

这篇具有很好参考价值的文章主要介绍了西瓜书公式(10.24)的推导。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

在西瓜书 10.4 节 “核化线性降维” 中,引入了一个映射函数 ϕ \phi ϕ,其作用是将样本点 x i x_i xi 映射到高维特征空间中,即 z i = ϕ ( x i ) z_i=\phi(x_i) zi=ϕ(xi)
由前文中的推导可以得到 式(10.21)式(10.22)
( ∑ i = 1 m ϕ ( x i ) ϕ ( x i ) T ) w j = λ j w j (10.21) \left(\sum_{i=1}^m \phi(x_i)\phi(x_i)^T\right)w_j= \lambda_jw_j\tag{10.21} (i=1mϕ(xi)ϕ(xi)T)wj=λjwj(10.21)
w j w_j wj 是高维空间中的一个标准正交基
w j = ∑ i = 1 m ϕ ( x i ) α i j (10.22) w_j=\sum_{i=1}^m\phi(x_i)\alpha_i^j\tag{10.22} wj=i=1mϕ(xi)αij(10.22)
其中 α i j = 1 λ j z i T w j \alpha_{i}^{j}=\frac{1}{\lambda{j}}z_i^Tw_j αij=λj1ziTwj
一般情形下,我们不清楚 ϕ \phi ϕ 的具体形式,于是引入核函数
κ ( x i , x j ) = ϕ ( x i ) T ϕ ( x j ) (10.23) \kappa(x_i,x_j)=\phi(x_i)^T\phi(x_j) \tag{10.23} κ(xi,xj)=ϕ(xi)Tϕ(xj)(10.23)
式(10.22)式(10.23) 代入 式(10.21) 后可得
K α j = λ j α j (10.24) K\alpha^j=\lambda_j\alpha^j \tag{10.24} Kαj=λjαj(10.24)
其中 K K K κ \kappa κ 对应的核矩阵, ( K ) i j = κ ( x i , x j ) (K)_{ij}=\kappa(x_i,x_j) (K)ij=κ(xi,xj), α j = ( α 1 j ; α 2 j ; . . . ; α m j ) \alpha^j=(\alpha^j_1;\alpha^j_2;...;\alpha^j_m) αj=(α1j;α2j;...;αmj).

下面我们来推导 式(10.24):

( ∑ i = 1 m ϕ ( x i ) ϕ ( x i ) T ) ( ∑ k = 1 m ϕ ( x k ) α k j ) = λ j ∑ i = 1 m ϕ ( x i ) α i j (10.22 代入 10.21) \left(\sum_{i=1}^m \phi(x_i)\phi(x_i)^T\right) \left(\sum_{k=1}^m\phi(x_k)\alpha_k^j\right)= \lambda_j\sum_{i=1}^m\phi(x_i)\alpha_i^j \tag{10.22 代入 10.21} (i=1mϕ(xi)ϕ(xi)T)(k=1mϕ(xk)αkj)=λji=1mϕ(xi)αij(10.22 代入 10.21)
∑ k = 1 m ( ∑ i = 1 m ϕ ( x i ) ϕ ( x i ) T ) ϕ ( x k ) α k j = λ j ∑ i = 1 m ϕ ( x i ) α i j (分配率) \sum_{k=1}^m \left(\sum_{i=1}^m \phi(x_i) \phi(x_i)^T \right)\phi(x_k)\alpha_k^j= \lambda_j\sum_{i=1}^m\phi(x_i)\alpha_i^j \tag{分配率} k=1m(i=1mϕ(xi)ϕ(xi)T)ϕ(xk)αkj=λji=1mϕ(xi)αij(分配率)

∑ k = 1 m ( ∑ i = 1 m ϕ ( x i ) ϕ ( x i ) T ϕ ( x k ) α k j ) = λ j ∑ i = 1 m ϕ ( x i ) α i j (分配率) \sum_{k=1}^m \left(\sum_{i=1}^m \phi(x_i) \phi(x_i)^T \phi(x_k)\alpha_k^j\right)= \lambda_j\sum_{i=1}^m\phi(x_i)\alpha_i^j \tag{分配率} k=1m(i=1mϕ(xi)ϕ(xi)Tϕ(xk)αkj)=λji=1mϕ(xi)αij(分配率)
∑ k = 1 m ( ∑ i = 1 m ϕ ( x i ) κ ( x i , x k ) α k j ) = λ j ∑ i = 1 m ϕ ( x i ) α i j (代入 10.23) \sum_{k=1}^m \left(\sum_{i=1}^m \phi(x_i) \kappa(x_i,x_k) \alpha_k^j\right)= \lambda_j\sum_{i=1}^m\phi(x_i)\alpha_i^j \tag{代入 10.23} k=1m(i=1mϕ(xi)κ(xi,xk)αkj)=λji=1mϕ(xi)αij(代入 10.23)
∑ i = 1 m ϕ ( x i ) ∑ k = 1 m κ ( x i , x k ) α k j = λ j ∑ i = 1 m ϕ ( x i ) α i j (交换求和符号) \sum_{i=1}^m \phi(x_i) \sum_{k=1}^m\kappa(x_i,x_k) \alpha_k^j= \lambda_j\sum_{i=1}^m\phi(x_i)\alpha_i^j \tag{交换求和符号} i=1mϕ(xi)k=1mκ(xi,xk)αkj=λji=1mϕ(xi)αij(交换求和符号)
∑ i = 1 m ϕ ( x i ) ( K α j ) i = λ j ∑ i = 1 m ϕ ( x i ) α i j (矩阵乘法) \sum_{i=1}^m \phi(x_i) (K\alpha^j)_i= \lambda_j\sum_{i=1}^m\phi(x_i)\alpha_i^j \tag{矩阵乘法} i=1mϕ(xi)(Kαj)i=λji=1mϕ(xi)αij(矩阵乘法)
Φ ( K α j ) = λ j Φ α j (矩阵乘法) \Phi \left( K\alpha^j\right)= \lambda_j\Phi \alpha^j \tag{矩阵乘法} Φ(Kαj)=λjΦαj(矩阵乘法)
其中 Φ = ( ϕ ( x 1 ) , ϕ ( x 2 ) , . . . , ϕ ( x m ) ) \Phi=(\phi(x_1),\phi(x_2),...,\phi(x_m)) Φ=(ϕ(x1),ϕ(x2),...,ϕ(xm))
K α j = λ j α j ( 两边同时乘以  Φ − 1 ) K\alpha^j= \lambda_j \alpha^j \tag{两边同时乘以 $\Phi^{-1}$} Kαj=λjαj(两边同时乘以 Φ1)
证毕。

最后,为了帮助理解,上述各变量的维度如下:
α i j ∈ R 1 × 1 α j ∈ R m × 1 K ∈ R m × m K α j ∈ R m × 1 ( K α j ) i ∈ R 1 × 1 ϕ ( x i ) ∈ R d × 1 Φ ∈ R d × m Φ ( K α j ) ∈ R d × 1 \begin{aligned} \alpha^j_i &\in \mathbb{R}^{1\times1} \\ \alpha^j &\in \mathbb{R}^{m \times 1} \\ K &\in \mathbb{R}^{m \times m} \\ K\alpha^j &\in \mathbb{R}^{m \times 1} \\ \left(K\alpha^j\right)_i &\in \mathbb{R}^{1 \times 1} \\ \phi(x_i) &\in \mathbb{R}^{d \times 1} \\ \Phi &\in \mathbb{R}^{d \times m} \\ \Phi \left( K \alpha^j \right) &\in \mathbb{R}^{d \times 1} \\ \end{aligned} αijαjKKαj(Kαj)iϕ(xi)ΦΦ(Kαj)R1×1Rm×1Rm×mRm×1R1×1Rd×1Rd×mRd×1文章来源地址https://www.toymoban.com/news/detail-489832.html

到了这里,关于西瓜书公式(10.24)的推导的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 二.西瓜书——线性模型、决策树

             “线性回归”(l inear regress ion)试 图学得一个线性模型以尽可能准确地预测实值输出标记.          假设我们认为示例所对应的输出标记是在 指数尺度上变化 ,那就可将输出标记的对数作为线性模型逼近的目 标,即                             

    2024年02月19日
    浏览(26)
  • [机器学习西瓜书]3.线性回归

    介于看完之后老是不知道看了些啥,所以开这么一部分blog对看到的内容进行记录整理 当然知识介绍肯定没有书上写的详细,仅限于自己对内容的整理 试图学习一个通过属性的线性组合来进行预测的函数 这里学到的主要内容 线性回归——最小二乘法 局部加权线性回归 对数几

    2023年04月26日
    浏览(38)
  • 机器学习西瓜书之线性回归

    目的:仅仅通过一个变量预测因变量 举个例子:仅仅通过发量判断程序员水平 此时表示函数: y = ω omega ω x + b 1.2.1 最小二乘估计 目的:基于军方误差最小化来进行模型求解的方法: 对于函数 y = ω omega ω x + b ,我们定义如下公式求解误差: E ( w , b ) = ∑ i = 1 m ( y i − f (

    2024年01月21日
    浏览(39)
  • NW小世界网络公式推导

    假设网络中度数为 k k k 的节点有 N k N_k N k ​ 个,总共有 N N N 个节点,则度数为 k k k 的节点出现的概率可以表示为: P ( k ) = N k N P(k) = frac{N_k}{N} P ( k ) = N N k ​ ​ 在NW小世界网络中,每个节点有 k k k 条边,其中 k k k 是一个偶数, k / 2 k/2 k /2 条边与相邻节点相连,另外 k

    2024年02月05日
    浏览(85)
  • 华里士公式的推导及其推广

    华里士公式 I n = ∫ 0 π 2 sin ⁡ n x d x = ∫ 0 π 2 cos ⁡ n x d x = { n − 1 n n − 3 n − 2 ⋯ 2 3 n   i s   o d d , n − 1 n n − 3 n − 2 ⋯ 1 2 π 2 n   i s   e v e n Large begin{aligned} I_n = int_{0}^{frac{pi}{2}} sin^n{x} mathrm{d}x = int_{0}^{frac{pi}{2}} cos^n{x} mathrm{d}x = begin{cases} frac{n-1}{n} frac{n-3}

    2023年04月15日
    浏览(54)
  • 支持向量机(公式推导+举例应用)

    引言 在机器学习领域,支持向量机(Support Vector Machine,简称SVM)是一种强大而广泛应用的监督学习算法。其独特的优势在于在高维空间中进行准确分类,并在处理复杂数据集时表现出色。支持向量机的核心思想是在数据点间找到一个最优的超平面,以最大化不同类别之间的

    2024年01月16日
    浏览(41)
  • PnP算法详解(超详细公式推导)

    博主缺粉丝希望大家能给个关注!!! PnP(Perspective-n-Point)是求解3D到2D点的对应方法。它描述了当知道n个3D空间点及其位置,如何估计相机的位姿。如果两张图像中的一张特征点3D位置已知,那么至少需要3个点对(以及至少一个额外验证点验证结果)就可以计算相机的运动。 P

    2024年02月03日
    浏览(37)
  • 对数换底公式及推导证明

    在数学中,对数是对求幂的逆运算,正如除法是乘法的逆运算,反之亦然。如果 a 的 x 次方等于 N (a0,且a≠1),那么数 x 叫做以 a 为底 N 的对数(logarithm),记作 x = l o g a N x=log_a N x = l o g a ​ N 。其中, a 叫做对数的底数, N 叫做真数。 x = l o g a N x=log_a N x = l o g a ​ N 等

    2024年02月11日
    浏览(60)
  • 贝叶斯分类器(公式推导+举例应用)

    引言 在机器学习的世界中,有一类强大而受欢迎的算法——贝叶斯分类器,它倚仗着贝叶斯定理和朴素的独立性假设,成为解决分类问题的得力工具。这种算法的独特之处在于其对概率的建模,使得它在面对不确定性和大规模特征空间时表现卓越。 本文将深入探讨贝叶斯分

    2024年01月21日
    浏览(46)
  • 【论文精读】NeRF中的数学公式推导

    这篇文章用于记录NeRF论文中数学公式的推导过程。 论文里的第一个公式就很硬核,展示了相机射线的期望颜色的计算方法。 5D 神经辐射场将场景表示为空间中任意点的体积密度和定向发射的辐射。文章使用经典体积渲染的原理,来渲染任何穿过场景的光线的颜色。体积密度

    2024年02月10日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包