矩阵的谱分解 (详细推导步骤~~~特征值分解特征向量

这篇具有很好参考价值的文章主要介绍了矩阵的谱分解 (详细推导步骤~~~特征值分解特征向量。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

       所谓矩阵的分解,就是将一个矩阵写成结构比较简单的或性质比较熟悉的另一些矩阵的乘积。矩阵的分解方法有很多种,包括三角分解、QR(正交三角)分解、最大秩分解、奇异值分解和谱分解,所有这些分解在数值代数和最优化问题的解法中都扮演着十分重要的角色。

矩阵的谱分解 (详细推导步骤~~~特征值分解特征向量

本文介绍矩阵的谱分解(Eigen decomposition / Spectral decomposition),不多废话了、直接进入正题、

* * *  * * *

设矩阵 有特征根 ,其对应的特征向量为 , 根据定义有

同时,矩阵A和它的转置 的特征值是相同的,都是 ,因为它们的特征多项式是相同的:

因此,存在向量 ,使得

将上式取转置,有

这里,称 为A的左特征向量, 则为A的右特征向量.

由此可知,对于矩阵A的每一个特征值 ,存在向量 和 使

 A的特征根如果全不同(若相同,此种情况在下文介绍),设为 ,就有2n个向量 ,,i=1,2,...,n,使

  ,   ,

 记  ,则有

其中     为对应特征值构成的对角矩阵.

* * *  * * *

要使A表示成其他矩阵的乘积(谱分解的形式),需要上式中的UV可逆(右乘它的逆矩阵),即要证明 和 存在,这等同于证明 是线性无关的,下面给出证明(反证法证明其中一组,另一组同理):

若 是线性相关的,那么存在一组不全为0的数 ,使得

①                                                           

于是就有

②                                        

 由于 中至少有一个不为0,所以可以

③ 将某个 用其他的向量 来表示,并将其代入②中的 ,这样可以消去一个

不妨记为消去 ,在代入消去后,就有不全为0的 ,使得     ,重复③的做法,逐一消去后得到 ,考虑到矩阵的特征向量不为零向量,所以原假设错误,由此证明U是可逆的,同理,V也是可逆的.

 * * *  * * *

 又因为

 

于是,当 时, 对一切 成立,也即

易见 存在,且 ,即 ,由 ,就有

  时A的特征向量,那么 仍然是A的特征向量,适当选取 以及 ,使得 ,于是 ,因此有

上式就是矩阵的谱分解,特征根 也称为矩阵A的谱.

易见, 就是一个矩阵,因此A被分解为n个矩阵 的线性组合的形式,其系数就是A的谱.

* * *  * * *

       另外,若A的特征根有重根,例如 是A的 重根,若相应于 有 个线性无关的特征向量,那么上面的讨论仍可以进行. 但是如果A的某个特征根的重数与它的线性无关的特征向量个数不相同,那么谱分解就不成立.

    分享    交流    点赞鼓励 :-)  文章来源地址https://www.toymoban.com/news/detail-451364.html

到了这里,关于矩阵的谱分解 (详细推导步骤~~~特征值分解特征向量的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 特征值求导推导

    设矩阵 A A A 的第 i i i 大特征值为 λ i lambda_i λ i ​ , 对应特征向量 v i v_i v i ​ , A = A H A=A^H A = A H 求: ∇ A λ i = ∂ λ i ∂ A ∗ nabla_Alambda_i=frac{partial lambda_i}{partial A^*} ∇ A ​ λ i ​ = ∂ A ∗ ∂ λ i ​ ​ 目标: 写出 d λ i = t r ( B d A H ) dlambda_i=tr(BdA^H) d λ i ​ = t r (

    2024年02月16日
    浏览(23)
  • 线性代数高级--二次型--特征值与特征向量--特征值分解--多元函数的泰勒展开

    目录 二次型 概念 示例   性质和特点 特征值与特征向量 概念 示例  注意  性质和特点  特征值分解 注意 多元函数的泰勒展开  回顾一元函数泰勒展开  多元函数的泰勒展开 概念 二次型是一个关于向量的二次多项式,通常用矩阵表示。 考虑一个n维向量x = [x₁, x₂, ...,

    2024年02月11日
    浏览(42)
  • 特征值和特征向量的解析解法--带有重复特征值的矩阵

    当一个矩阵具有重复的特征值时,意味着存在多个线性无关的特征向量对应于相同的特征值。这种情况下,我们称矩阵具有重复特征值。 考虑一个n×n的矩阵A,假设它有一个重复的特征值λ,即λ是特征值方程det(A-λI) = 0的多重根。我们需要找到与特征值λ相关的特征向量。 首

    2024年02月05日
    浏览(33)
  • 线性代数|证明:矩阵特征值的倒数是其逆矩阵的特征值

    性质 1 若 λ lambda λ 是 A boldsymbol{A} A 的特征值,当 A boldsymbol{A} A 可逆时, 1 λ frac{1}{lambda} λ 1 ​ 是 A − 1 boldsymbol{A}^{-1} A − 1 的特征值。 证明 因为 λ lambda λ 是 A boldsymbol{A} A 的特征值,所以有 p ≠ 0 boldsymbol{p} ne 0 p  = 0 使 A p = λ p boldsymbol{A} boldsymbol{p} = lambda

    2024年02月08日
    浏览(36)
  • 【问题证明】矩阵方程化为特征值方程求得的特征值为什么是全部特征值?不会丢解吗?

    这个问题困扰了我好久,一直感觉如果有其他的特征值没法证伪,不过一直存在思想的层面,没有实际解决,今天突然想到动笔来解决,遂得解,证明如下。 这个证明看似证明过后很直观,但实际上思维走向了牛角尖的时候光靠思考是无法得出令人信服的结论的,唯有实际动

    2024年02月05日
    浏览(46)
  • 《数值分析》-3-特征值与特征矩阵

    搜索技术的很多方面的知识发现都依赖于特征值或奇异值问题,涉及到特征值计算问题。 计算特征值没有直接的方法。 定位特征值的计算方法基于幂迭代的思想,这是求解特征值的一类迭代方法。该思想的一个复杂版本被称为QR算法,是确定典型矩阵所有特征值的一般方法。

    2024年02月08日
    浏览(35)
  • 5.1 矩阵的特征值和特征向量

    学习特征值和特征向量的定义和性质,我会采取以下方法: 1. 学习线性代数基础知识:特征值和特征向量是线性代数中的重要概念,需要先掌握线性代数的基础知识,例如向量、矩阵、行列式、逆矩阵、转置、内积、外积等基本概念。 2. 学习特征值和特征向量的定义:特征

    2024年02月02日
    浏览(40)
  • MATLAB矩阵的特征值与特征向量

    设A是n阶方阵,如果存在常数λ和n维非零列向量x,使得等式Ax = λx 成立,则称λ为A的特征值,x是对应特征值λ的特征向量。 在MATLAB中,计算矩阵的特征值与特征向量的函数是eig,常用的调用格式有两种: E = eig(A):求矩阵A的全部特征向量值,构成向量E。 [X,D] = eig(A):

    2024年02月11日
    浏览(33)
  • 特征值与相似矩阵

    应用:求幂,对角化,二次型,动力系统等等 通俗 ​ 向量α在矩阵A的线性变换作用下,保持方向不变,进行比例为λ的伸缩。 官方(注意是方阵) 特征方程 ​ (λE-A)α = 0 (α!=0)特征向量不能为0,但是 特征值可以为0或虚数 。方程中λ的次数应与A的 阶数相同 ,否则不是

    2024年02月06日
    浏览(38)
  • 线性代数(五) | 矩阵对角化 特征值 特征向量

    矩阵实际上是一种变换,是一种旋转伸缩变换(方阵) 不是方阵的话还有可能是一种升维和降维的变换 直观理解可以看系列超赞视频线性代数-哔哩哔哩_Bilibili 比如A= ( 1 2 2 1 ) begin{pmatrix}12\\\\21end{pmatrix} ( 1 2 ​ 2 1 ​ ) x= ( 1 2 ) begin{pmatrix}1\\\\2end{pmatrix} ( 1 2 ​ ) 我们给x左乘A实际

    2024年02月04日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包