线性代数拾遗(6)—— 向量空间投影与投影矩阵

这篇具有很好参考价值的文章主要介绍了线性代数拾遗(6)—— 向量空间投影与投影矩阵。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

  • 参考:麻省理工线性代数
  • 阅读本文前请先了解矩阵四个基本子空间,参考:线性代数拾遗(5) —— 矩阵的四个基本子空间

1. 向量投影到一维空间(向量间投影)

  • 考察二维平面投影,如下将向量 b \pmb{b} b 投影到向量 a \pmb{a} a 方向,得到 a \pmb{a} a 的子空间中的向量 p \pmb{p} p,假设是 a \pmb{a} a x x x
    线性代数拾遗(6)—— 向量空间投影与投影矩阵

    如图可见 b − p \pmb{b-p} bp 可以衡量 a , b \pmb{a,b} a,b 间的误差,它与向量 a \pmb{a} a 正交,內积为 0,即有
           a ⊤ ( b − p ) = a ⊤ ( b − x a ) = 0 ⇒ x = a ⊤ b a ⊤ a ⇒ p = a x = a a ⊤ b a ⊤ a = ( a a ⊤ a ⊤ a ) b \begin{aligned} &\space\space\space\space\space\space\pmb{a^\top}(\pmb{b-p}) = \pmb{a^\top}(\pmb{b}-x\pmb{a}) = \pmb{0}\\ &\Rightarrow x = \frac{\pmb{a^\top b}}{\pmb{a^\top a}} \\ &\Rightarrow \pmb{p} = \pmb{a}x = \pmb{a} \frac{\pmb{a^\top b}}{\pmb{a^\top a}} = ( \frac{\pmb{aa^\top }}{\pmb{a^\top a}}) \pmb{b} \end{aligned}       a(bp)=a(bxa)=0x=aaabp=ax=aaaab=(aaaa)b 这时,我们把 a a ⊤ a ⊤ a \frac{\mathbf{aa^\top }}{\mathbf{a^\top a}} aaaa 称为 投影矩阵,记为 P \pmb{P} P,用它左乘原始向量 b \pmb{b} b 就得到投影向量 p \pmb{p} p,即 P b = p \pmb{Pb} = \pmb{p} Pb=p

  • 两种特殊情况

    1. b \pmb{b} b a \pmb{a} a 平行,有 P b = b \pmb{Pb} = \pmb{b} Pb=b
    2. b \pmb{b} b a \pmb{a} a 正交,有 P b = 0 \pmb{Pb} = \pmb{0} Pb=0

    二维空间中,平行和正交于向量 a \pmb{a} a 的两个向量构成一组基,可以线性表出任意向量,投影本质就是保留平行部分而消除正交部分

  • 研究投影矩阵 P = a a ⊤ a ⊤ a \pmb{P}=\frac{\mathbf{aa^\top }}{\mathbf{a^\top a}} P=aaaa 性质

    1. 分子 a ⊤ a \mathbf{a^\top a} aa 是向量內积,是个常数,不管它
    2. 分子 a a ⊤ \mathbf{aa^\top } aa,这是个矩阵,显然有 rank ( A ) = 1 \text{rank}(\pmb{A})=1 rank(A)=1,其列空间就是 k a k\pmb{a} ka,因此用投影矩阵左乘向量会把向量变换到其列空间 k a k\pmb{a} ka 中,实现投影

      注:用矩阵左乘一个向量时,相当于对这个矩阵的列向量做线性组合,得到的向量位于矩阵的列空间中

    3. a a ⊤ \mathbf{aa^\top } aa 对称,所以 p \pmb{p} p 是对称矩阵, P = P ⊤ \pmb{P} = \pmb{P^\top} P=P
    4. 重复投影两次,结果不变,即有 P 2 = P \pmb{P}^2 = \pmb{P} P2=P

      这个也可以简单地展开计算验证

  • 另外提一句, 假设向量 a , b \pmb{a,b} a,b 夹角为 θ \theta θ,常见的向量内积 a ⊤ b = ∣ ∣ b ∣ ∣ ⋅ ∣ ∣ a ∣ ∣ ⋅ c o s ( θ ) \pmb{a}^\top \pmb{b} = ||b||·||a||·cos(\theta) ab=∣∣b∣∣∣∣a∣∣cos(θ) 计算的就是一个向量的模乘以另一个向量在此向量上投影的模长。如果把其中某一个向量的模长设为1(即变为单位向量),最后再乘以该向量,就得到投影向量,即
    a 投影到单位向量 b 为: ( a ⊤ b ) b = ( b ⊤ a ) b = ∣ ∣ a ∣ ∣ c o s ( θ ) b ,其中 ∣ ∣ b ∣ ∣ = 1 b 投影到单位向量 a 为: ( a ⊤ b ) a = ( b ⊤ a ) a = ∣ ∣ b ∣ ∣ c o s ( θ ) a ,其中 ∣ ∣ a ∣ ∣ = 1 \pmb{a}投影到单位向量 \pmb{b} 为: (\pmb{a}^\top \pmb{b})\pmb{b}=(\pmb{b}^\top \pmb{a})\pmb{b} = ||\pmb{a}||cos(\theta)\pmb{b},其中 ||\pmb{b}|| = 1\\ \pmb{b}投影到单位向量 \pmb{a} 为: (\pmb{a}^\top \pmb{b})\pmb{a}=(\pmb{b}^\top \pmb{a})\pmb{a}=||\pmb{b}||cos(\theta)\pmb{a},其中 ||\pmb{a}|| = 1 a投影到单位向量b为:(ab)b=(ba)b=∣∣a∣∣cos(θ)b,其中∣∣b∣∣=1b投影到单位向量a为:(ab)a=(ba)a=∣∣b∣∣cos(θ)a,其中∣∣a∣∣=1 当投影方向不是单位向量时,增加其模的倒数进行缩放,如上图中的 p = ∣ ∣ b ∣ ∣ c o s ( θ ) a ∣ ∣ a ∣ ∣ \pmb{p} = ||\pmb{b}||cos(\theta)\frac{\mathbf{a}}{||\mathbf{a}||} p=∣∣b∣∣cos(θ)∣∣a∣∣a

2. 向量投影到多维空间

2.1 计算方法

  • 完全和第 1 节中二维情况完全类似,现有矩阵 A \pmb{A} A,将向量 b \pmb{b} b 投影到 A \pmb{A} A 列向量 a 1 , a 2 , . . . , a n \pmb{a}_1,\pmb{a}_2,...,\pmb{a}_n a1,a2,...,an 张成的空间中得到 p \pmb{p} p。三维情况示意图如下 线性代数拾遗(6)—— 向量空间投影与投影矩阵
    可见这时仍有 e = b − p \pmb{e} = \pmb{b-p} e=bp 可以衡量 b \pmb{b} b A \pmb{A} A 列空间间的误差,我们希望希望二者正交(也就是希望误差最小化),这意味着 b \pmb{b} b A \pmb{A} A 的所有列向量正交,內积均为 0;另一方面,这时 p \pmb{p} p A \pmb{A} A 列空间中,故能用 A \pmb{A} A 的列向量线性表示,设 p = A x ^ \pmb{p}=\pmb{A\hat{x}} p=Ax^,则有
         [ a 1 ⊤ a 2 ⊤ ⋮ a m ⊤ ] ( b − p ) = [ a 1 ⊤ a 2 ⊤ ⋮ a m ⊤ ] ( b − A x ^ ) = [ 0 0 ⋮ 0 ] ⇒ A ⊤ ( b − A x ^ ) = 0 ⇒ x ^ = ( A ⊤ A ) − 1 A ⊤ b ⇒ p = A x ^ = A ( A ⊤ A ) − 1 A ⊤ b \begin{aligned} &\space\space\space\space\begin{bmatrix} \pmb{a}_1^\top \\ \pmb{a}_2^\top \\ \vdots\\ \pmb{a}_m^\top \end{bmatrix} (\pmb{b-p}) = \begin{bmatrix} \pmb{a}_1^\top \\ \pmb{a}_2^\top \\ \vdots\\ \pmb{a}_m^\top \end{bmatrix} (\pmb{b}-\pmb{A}\pmb{\hat{x}}) = \begin{bmatrix} \pmb{0}\\ \pmb{0} \\ \vdots\\ \pmb{0} \end{bmatrix} \\ &\Rightarrow \pmb{A^\top}(\pmb{b-\pmb{A}\hat{x}}) = \pmb{0}\\ &\Rightarrow \pmb{\hat{x}} = (\pmb{A^\top A})^{-1}\pmb{A^\top b} \\ &\Rightarrow \pmb{p} = \pmb{A\hat{x}} = \pmb{A}(\pmb{A^\top A})^{-1}\pmb{A^\top b} \end{aligned}      a1a2am (bp)= a1a2am (bAx^)= 000 A(bAx^)=0x^=(AA)1Abp=Ax^=A(AA)1Ab 这时,我们把 A ( A ⊤ A ) − 1 A ⊤ \pmb{A}(\pmb{A^\top A})^{-1}\pmb{A^\top} A(AA)1A 称为 投影矩阵,记为 P \pmb{P} P,用它左乘原始向量 b \pmb{b} b 就得到投影向量 p \pmb{p} p,即 P b = p \pmb{Pb} = \pmb{p} Pb=p

  • 两种特殊情况

    1. b ∈ C ( A ) \pmb{b} \in C(\pmb{A}) bC(A),有 P b = b \pmb{Pb} = \pmb{b} Pb=b

      这时 b = A x \pmb{b} = \pmb{Ax} b=Ax A \pmb{A} A 的线性组合,有 P b = A ( A ⊤ A ) − 1 A ⊤ A x = A x = b \pmb{Pb} = \pmb{A}(\pmb{A^\top A})^{-1}\pmb{A^\top Ax }= \pmb{Ax}=\pmb{b} Pb=A(AA)1AAx=Ax=b

    2. b ⊥ C ( A ) \pmb{b} \perp C(\pmb{A}) bC(A),即 b ∈ N ( A ⊤ ) \pmb{b} \in N(\pmb{A^\top}) bN(A),有 P b = 0 \pmb{Pb} = \pmb{0} Pb=0

      这时 A ⊤ b = 0 \pmb{A^\top b} = \pmb{0} Ab=0,有 P b = A ( A ⊤ A ) − 1 A ⊤ x = 0 \pmb{Pb} = \pmb{A}(\pmb{A^\top A})^{-1}\pmb{A^\top x }= \pmb{0} Pb=A(AA)1Ax=0

    m m m 维( A \pmb{A} A 列向量尺寸)空间可以分解为 C ( A ) C(\pmb{A}) C(A) N ( A ⊤ ) N(\pmb{A^\top}) N(A) 的正交直和,因此这两个空间的基放在一起就构成 m m m 维空间的一组基,可以线性表出任意向量,投影本质就是保留 C ( A ) C(\pmb{A}) C(A) 中部分而消除 N ( A ⊤ ) N(\pmb{A^\top}) N(A) 中部分,可以用子空间关系图如下表示
    线性代数拾遗(6)—— 向量空间投影与投影矩阵
    如图可见,除了上述投影 P b = p \pmb{Pb=p} Pb=p b \pmb{b} b 投影到 C ( A ) C(\pmb{A}) C(A) 中以外,还有另一个投影 ( I − P ) b = e (\pmb{I-P})\pmb{b} = \pmb{e} (IP)b=e b \pmb{b} b 投影到 N ( A ⊤ ) N(\pmb{A^\top}) N(A) 中,可见 P \pmb{P} P 是投影矩阵时, I − P \pmb{I-P} IP 也是一个投影矩阵

  • 研究投影矩阵 P = A ( A ⊤ A ) − 1 A ⊤ \pmb{P}=\pmb{A}(\pmb{A^\top A})^{-1}\pmb{A^\top} P=A(AA)1A 性质文章来源地址https://www.toymoban.com/news/detail-466210.html

    1. A \pmb{A} A 非方阵时, A \pmb{A} A 列满秩 ⇔ A ⊤ A \Leftrightarrow \pmb{A^\top A} AA 可逆,
    2. A \pmb{A} A 是可逆方阵时,其中的括号可以打开,这时有 P = I \pmb{P}=\pmb{I} P=I,即投影矩阵做的是恒等映射。确实如此,因为 A \pmb{A} A 可逆,意味着列满秩,其列空间是整个 n n n 维空间,投影前后都在同一个空间中,那么恒等映射显然是误差最小的
    3. 简单计算即可得到 P \pmb{P} P 是对称矩阵,即有 P = P ⊤ \pmb{P} = \pmb{P^\top} P=P
    4. 重复投影两次,结果不变,即有 P 2 = P \pmb{P}^2 = \pmb{P} P2=P,也可从代数角度简单计算验证
    5. P \pmb{P} P 是投影矩阵时, I − P \pmb{I-P} IP 也是一个投影矩阵

2.2 意义

  • 现实生活中常有这样的应用:根据一些测量值求解另一些值,比如根据卫星与几个基站的通讯延时测量其位置。这其实就是在解方程,通常一组观测值解出一个结果,为了提高准确性,通常会收集很多数据,这样就联立到得到方程组 A x = b \pmb{Ax} = \pmb{b} Ax=b一般情况下样本量远大于未知数个数,即 A m × n \pmb{A}_{m\times n} Am×n m > > n m>>n m>>n,这样的超定方程很难有解析解,除非其中含有多达 m − n m-n mn 个无效约束,因为我们没法对非方阵的 A \pmb{A} A 求逆来得到 x = A − 1 b \pmb{x} = \pmb{A}^{-1}\pmb{b} x=A1b
  • 这时我们可以不断地去除方程,直到剩下的方程组有解为止,但这会造成数据浪费。另一种更好的方法是找一个和已知数据 “误差最小” 的解,设这个近似解为 x ^ \pmb{\hat{x}} x^,我们有
    A x ^ = p \pmb{A\hat{x}} = \pmb{p} Ax^=p 第 1 节中已分析过,我们这时是通过矩阵 A \pmb{A} A 左乘,把向量 x ^ \pmb{\hat{x}} x^ 变换到了 A \pmb{A} A 的列空间中得到 p \pmb{p} p,为了保证 “误差最小” ,这时 p \pmb{p} p 应当是 b \pmb{b} b A \pmb{A} A 列空间中的投影
  • 一句话说,可以利用空间投影估计无解线性方程组的最小误差解,基于这个原理可以得到最小二乘法

到了这里,关于线性代数拾遗(6)—— 向量空间投影与投影矩阵的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习-线性代数-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月06日
    浏览(46)
  • 线性代数(魏福义)——第一章:向量与线性空间

    坐标系中可使用向量处理几何与运动学的问题,一般使用到二维或者三维有序数组,如(x,y)、(x,y,z),这样的数组称作 向量, 实际问题会用到更多维的向量。 1.1.1向量 以有序数组表示向量。n个数排成的有序数组就是n维向量。 α=(a1,a2,a3...,an)称为 行向量 ;将其

    2024年03月21日
    浏览(37)
  • 向量空间模型的线性代数基础

    [toc] 线性代数是向量空间模型的基础,对于学习向量空间模型的朋友,理解线性代数基础知识是非常必要的。本文将介绍向量空间模型的线性代数基础,包括基本概念、技术原理、实现步骤、应用示例以及优化与改进等内容。 引言 线性代数是数学的一个分支,主要研究线性

    2024年02月16日
    浏览(30)
  • 机器学习-线性代数-1-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月10日
    浏览(43)
  • 矩阵分解是计算机科学中的一个重要研究领域,涉及到向量空间理论、线性代数、密码学等领域。以下是100篇热门博客文

    作者:禅与计算机程序设计艺术 矩阵分解是计算机科学中的一个重要研究领域,涉及到向量空间理论、线性代数、密码学等领域。在机器学习和深度学习等领域中,矩阵分解被广泛应用。本文将介绍矩阵分解的相关原理、实现步骤以及应用示例。 2.1 基本概念解释 矩阵分解是

    2024年02月15日
    浏览(39)
  • 线性代数中的向量和向量空间的应用

    作者:禅与计算机程序设计艺术 作为一位人工智能专家,程序员和软件架构师,我深知线性代数在数据处理和机器学习中的重要性。本文旨在探讨线性代数中向量和向量空间的应用,帮助读者更好地理解和应用这些技术。 技术原理及概念 线性代数是数学的一个分支,主要研

    2024年02月14日
    浏览(39)
  • 线性代数3,什么是向量 向量空间(草稿,建设ing)

    目录 1 标量 scalar 2 向量 /矢量 vector 2.1 什么是向量(直观) 2.2 什么是向量(严格定义) 2.3 向量如何表示?在向量空间的表示方法 3 矩阵(matrix) 3.1 矩阵的定义 3.2 矩阵和向量的关系 3.3  方阵 4 ​张量(tensor):向量,矩阵都可以看成张量 4.1 张量的定义 4.2 更多维度的张量,举

    2024年02月12日
    浏览(23)
  • 机器学习-线性代数-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月09日
    浏览(38)
  • 线性代数 --- 向量空间(vector space)与子空间(subspace)

            向量空间就是由包含n个分量的列向量所组成的Rn的空间,其中R表示实数。例如,R2就代表了一般的x-y平面,其中包含两个分量的向量表示坐标系中的一个点(x,y)。同理,R3中的一个向量,包含三个分量,可以表示三维坐标系中的一个点(x,y,z)。 也就是说,向量空间,

    2024年02月05日
    浏览(64)
  • 机器学习-线性代数-3-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月15日
    浏览(25)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包