矩阵分析:QR分解

这篇具有很好参考价值的文章主要介绍了矩阵分析:QR分解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Householder变换

镜面反射矩阵,SLAM,矩阵,线性代数,算法
Householder变换是一种简洁而有意思的线性变换,也可称为镜面反射变换,Householder变换矩阵为 H = I − w T w H=I-w^Tw H=IwTw
考虑向量 α \alpha α和一个单位向量 w : w T w = 1 w:w^{T}w=1 w:wTw=1
α \alpha α w w w 方向上的分量是
α w / / = ( w T α ) w = w w T α \alpha _{w_{//}}=\left( w^{T}\alpha \right) w=ww^{T}\alpha αw//=(wTα)w=wwTα
α \alpha α关于以 w w w为法向量的平面的镜面反射为
α − 2 α w / / = α − 2 w w T α = ( I − 2 w w T ) α = H α \alpha -2\alpha _{w_{//}}=\alpha -2ww^{T}\alpha =\left( I-2ww^{T}\right) \alpha =H\alpha α2αw//=α2wwTα=(I2wwT)α=Hα
考虑以下两个特殊向量
H w = ( I − 2 w w T ) w = w − 2 w ( w T w ) = − w v : w T v = 0 , H v = ( I − 2 w w T ) v = v − 2 w ( w T v ) = v \begin{aligned} &Hw=\left( I-2ww^{T}\right) w=w-2w\left( w^{T}w\right) =-w\\ &v:w^{T}v=0,Hv=( I -2ww^{T}) v=v-2w\left( w^{T}v\right) =v \end{aligned} Hw=(I2wwT)w=w2w(wTw)=wv:wTv=0,Hv=(I2wwT)v=v2w(wTv)=v
对于向量 w w w,Householder矩阵的作用是将其反向,对于垂直于向量 w w w的向量 v v v ,Householder矩阵对其不产生改变。那么对于一般的向量 α \alpha α,经过Householder矩阵作用后,平行于 w w w的分量反向,垂直于 w w w的分量保持不变。其整体作用是将向量关于法向量为 w w w的平面做镜面对称。

于是也可以得到,Householder变换不改变向量模长,是一种正交变换。两次镜面变换后将反射为自身,同时也是一种对合变换。即
H H T = I , H 2 = I HH^{T}=I,H^{2}=I HHT=I,H2=I
下面从代数层面考虑,上式表明 -1,1为Householder矩阵的特征值。对于向量 w w w,可以找到n-1个向量构成n维欧式空间的一组标准正交基。记 Q = [ w , v 1 , v 2 , … , v n − 1 ] Q=\left[ w,v_{1},v_{2},\ldots ,v_{n-1}\right] Q=[w,v1,v2,,vn1] ,有:
I = Q Q T = w w T + ∑ i = 1 n − 1 v i v i T H = I − 2 w w T = − w w T + ∑ i = 1 n − 1 v i v i T = Q ( − 1 1 ⋱ 1 ) Q T \begin{aligned} I&=QQ^{T}=ww^{T}+\sum ^{n-1}_{i=1}v_{i}v_{i}^{T}\\ H&=I-2ww^{T}=-ww^{T}+\sum ^{n-1}_{i=1}v_{i}v_i^{T}=Q\begin{pmatrix} -1 & & & \\ & 1 & & \\ & & \ddots & \\ & & & 1 \end{pmatrix}Q^{T} \end{aligned} IH=QQT=wwT+i=1n1viviT=I2wwT=wwT+i=1n1viviT=Q 111 QT
上式给出了Householder的对角化过程,可以看出其更本质的特征。通过秩为1的矩阵 w w T ww^T wwT改变了单位矩阵的一个特征值,进而改变其一个特征向量上的缩放变换。

Householder变换用于QR分解

可以通过Householder变换可以将向量 x x x变换为任意相同模长的向量 y y y
H x = y H x = y Hx=y
其中 H = I − w T w H=I-w^Tw H=IwTw,由Householder变换的本质是法向量为 w w w的平面的镜像对称可知
x − y = ∥ x − y ∥ w    ⟹    w = x − y ∥ x − y ∥ x-y=\lVert x-y \rVert w\\ \implies w=\dfrac{x-y}{\lVert x-y \rVert} xy=xyww=xyxy

而利用Householder变换的上述性质可以进行QR分解:
对于任意非奇异矩阵 A = [ a 1 a 2 ⋯ a n ] A=\begin{bmatrix}a_1&a_2&\cdots & a_n\end{bmatrix} A=[a1a2an],首先利用Householder变换将 A A A矩阵的第一列除第一个元素外全部变成0
H 1 a 1 = β e 1 H_1 a_1 = \beta e_1 H1a1=βe1
e i e_i ei是第i个元素为1的单位向量。
H 1 A = [ H 1 a 1 H 1 A ′ ] = [ ∗ ∗ 0 A ^ 1 ] H_1 A = \begin{bmatrix}H_1 a_1& H_1A'\end{bmatrix}=\begin{bmatrix}*&*\\0&\hat{A}_1\end{bmatrix} H1A=[H1a1H1A]=[0A^1]
从而我们可以迭代地对维度减一的矩阵 A ^ 1 \hat{A}_1 A^1进行上述求解,得到 H ^ 2 \hat H_2 H^2 ,则令 H 2 = ( 1 0 0 H ^ 2 ) H_2=\left(\begin{matrix}1 &0 \\0 &\hat H_2\end{matrix}\right) H2=(100H^2) ,则:
H ^ 2 A ^ 1 = [ ∗ ∗ 0 A ^ 2 ] \hat{H}_2 \hat{A}_1=\begin{bmatrix}*&*\\0&\hat{A}_2\end{bmatrix} H^2A^1=[0A^2]
以此类推接着对 A ^ 2 \hat{A}_2 A^2 做Householder变换将其第一列除第一元素外变为0。
最终迭代可以得到
H n − 1 ⋯ H 2 H 1 A = R H_{n-1}\cdots H_2H_1 A=R Hn1H2H1A=R

Q T = H n − 1 ⋯ H 2 H 1 Q^T=H_{n-1}\cdots H_2H_1 QT=Hn1H2H1

Givens变换

参考链接文章来源地址https://www.toymoban.com/news/detail-678261.html

到了这里,关于矩阵分析:QR分解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 线性代数 --- LU分解(Gauss消元法的矩阵表示)

                     首先, LU分解实际上就是用矩阵的形式来记录的高斯消元的过程 。其中,对矩阵A进行高斯消元后的结果为矩阵U,是LU分解后的两个三角矩阵中其中之一。U是一个上三角矩阵,U就是上三角矩阵upper triangle的首字母的大写。         高斯消元的每一步都

    2024年02月02日
    浏览(52)
  • 【线性代数/机器学习】矩阵的奇异值与奇异值分解(SVD)

    我们知道,对于一个 n × n ntimes n n × n 的矩阵 A A A ,如果 A A A 有 n n n 个线性无关的特征向量,则 A A A 可以相似对角化,即存在可逆矩阵 P P P 使得 A = P Λ P − 1 A=PLambda P^{-1} A = P Λ P − 1 ,其中 Λ Lambda Λ 是 A A A 的特征值组成的对角阵。 P P P 的列实际上就是 A A A 的特征向

    2024年02月10日
    浏览(40)
  • 04 MIT线性代数-矩阵的LU分解 Factorization into A=LU

    目的: 从矩阵的角度理解高斯消元法, 完成 LU 分解得到 A = LU U 为上三角阵(Upper triangular matrix),  L 为下三角阵(Lower triangular matrix), 通过分解得到对角阵 D (diagonal matrix) 设定一组消元矩阵,其中 E31 为单位阵 I ,其它两个消元矩阵如下: row3 -5 newrow2 = row3 -5( row2 -2 row1 )= row3 -

    2024年02月07日
    浏览(40)
  • 矩阵分解是计算机科学中的一个重要研究领域,涉及到向量空间理论、线性代数、密码学等领域。以下是100篇热门博客文

    作者:禅与计算机程序设计艺术 矩阵分解是计算机科学中的一个重要研究领域,涉及到向量空间理论、线性代数、密码学等领域。在机器学习和深度学习等领域中,矩阵分解被广泛应用。本文将介绍矩阵分解的相关原理、实现步骤以及应用示例。 2.1 基本概念解释 矩阵分解是

    2024年02月15日
    浏览(56)
  • 线性代数(七) 矩阵分析

    从性线变换我们得出,矩阵和函数是密不可分的。如何用函数的思维来分析矩阵。 通过这个定义我们就定义了矩阵序列的 收敛性 。 研究矩阵序列收敛性的常用方法,是用《常见向量范数和矩阵范数》来研究矩阵序列的极限。 长度是范数的一个特例。事实上,Frobenius范数对

    2024年02月08日
    浏览(47)
  • 基于Givens矩阵的QR矩阵分解

    QR分解是一种将矩阵分解为正交矩阵和上三角矩阵的方法。在QR分解中,正交矩阵Q的转置是它的逆矩阵,因此QR分解可以用于求解线性方程组、最小二乘问题等。 二阶Givens矩阵 一般地,二阶Givens矩阵记为下列形式: 其中 下面开始介绍基于Givens矩阵的QR分解算法。Givens矩阵是一

    2024年02月12日
    浏览(37)
  • Matlab实现矩阵的QR分解和奇异值分解

    1.安装并运行matlab软件; 2.在命令窗口行输入需要进行QR分解的矩阵,并输入求秩及进行QR分解的函数,如下图; 3.点击回车键,则可得Q及R矩阵; 4.若要查看之前所输入的矩阵及所获得的相关变量,可从右侧工作区窗口查看; 5.单击需要查看的变量名,则相关变量会被显示在主窗口

    2024年02月16日
    浏览(68)
  • 最优化方法(三)——矩阵QR分解

    1.熟练掌握 QR 分解 Gram–Schmidt方法; 2.掌握 Householder 方 法 ; 3. 能够判断 矩阵是否可逆 ,并 求出其逆矩阵 。 读取附件 MatrixA.mat 文件中的 矩阵 A , 利用 Gram–Schmidt(GS) 算法对A进行QR分解 。 (1)   验证GS是否 能稳定 进行QR分解矩阵A ,其 Q矩阵 是否正交? (2) 实现 Householder

    2024年01月24日
    浏览(36)
  • 最优化方法实验三--矩阵QR分解

    1.熟练掌握 QR 分解 Gram–Schmidt方法; 2.掌握 Householder 方 法 ; 3. 能够判断 矩阵是否可逆 ,并 求出其逆矩阵 。 1 .1向量投影 向量的投影包含了两层意思:①正交关系:矢量与投影的差称为误差,误差和投影正交;②最短距离:投影空间中所有矢量中,与原矢量距离最近的,

    2024年02月22日
    浏览(42)
  • 【矩阵分析】线性空间、λ矩阵、内积空间、Hermite矩阵、矩阵分解、矩阵范数、矩阵函数

    单纯矩阵 :A可对角化⇔①A可对角化;⇔②n个线性无关的特征向量; ⇔③每个特征值的几何重复度等于代数重复度;⇔④特征值λi对应的pi = n - rank(λiE - A)。 等价矩阵 :A(λ)等价于B(λ)⇔① 任意k阶行列式因子相同Dk(λ);⇔②有相同的不变因子dk(λ);⇔③相同的初等因子,且

    2024年01月22日
    浏览(65)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包