矩阵理论| 基础:特征值与特征向量、代数重数/几何重数、相似对角化和Jordan标准型

这篇具有很好参考价值的文章主要介绍了矩阵理论| 基础:特征值与特征向量、代数重数/几何重数、相似对角化和Jordan标准型。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

特征值与特征向量

矩阵 A \mathbf A A的特征值与特征向量满足 A x = λ x \mathbf A\mathbf x=\lambda\mathbf x Ax=λx,即 ( A − λ I ) x = 0 (\mathbf A-\lambda\mathbf I)\mathbf x=0 (AλI)x=0,且 x ≠ 0 \mathbf x\neq0 x=0

  • 特征值 d e t ( A − λ I ) = 0 det(\mathbf A-\lambda\mathbf I)=0 det(AλI)=0的根,其中 p ( λ ) = d e t ( A − λ I ) p(\lambda)=det(\mathbf A-\lambda\mathbf I) p(λ)=det(AλI)特征多项式
    A \mathbf A A全体所有特征值也称为 A \mathbf A A,记为 λ ( A ) \lambda(\mathbf A) λ(A)
  • 特征向量 ( A − λ I ) x = 0 (\mathbf A-\lambda\mathbf I)\mathbf x=0 (AλI)x=0的非零解,可见特征向量可能充满一整个子空间,该子空间就是零空间 N ( A − λ I ) N(\mathbf A-\lambda\mathbf I) N(AλI),称为特征子空间

不同特征值对应的特征子空间的交为{0}

相关的小技巧:若 A \mathbf A A的特征值为 λ \lambda λ,则 A − k I \mathbf A-k\mathbf I AkI的特征值为 λ − k \lambda-k λk

代数重数与几何重数

首先注意,代数重数与几何重数的概念,都是针对某一个特征值 λ i \lambda_i λi而言的

n n n阶矩阵 A \mathbf A A的特征多项式写为 p ( t ) = det ⁡ ( A − t I ) = ( λ 1 − t ) β 1 ⋯ ( λ k − t ) β k p(t)=\operatorname{det}(A-t I)=\left(\lambda_{1}-t\right)^{\beta_{1}} \cdots\left(\lambda_{k}-t\right)^{\beta_{k}} p(t)=det(AtI)=(λ1t)β1(λkt)βk
其中, β 1 + β 2 + . . . β k = n \beta_1+\beta_2+...\beta_k=n β1+β2+...βk=n n n n阶多项式,有 n n n个根)

  • 特征值 λ i \lambda_i λi代数重数 β i \beta_i βi
    ps. 代数重数也可以定义为 β i = d i m [ N ( ( A − λ i I ) n ) ] \beta_i=dim[N((\mathbf A-\lambda_i\mathbf I)^n)] βi=dim[N((AλiI)n)],见特征值的代数重数与几何重数
  • 特征值 λ i \lambda_i λi几何重数为其特征子空间的维数,即 d i m [ N ( A − λ i I ) ] dim[N(\mathbf A-\lambda_i\mathbf I)] dim[N(AλiI)]

对于任一特征值 λ i \lambda_i λi几何重数<=代数重数

  • 当特征值有重根时,就可能有几何重数<代数重数,此时“缺少”特征向量,对应降维变换,并且矩阵无法相似对角化

相似对角化和Jordan标准型

  • 当所有特征值的几何重数=代数重数,有 d i m [ N ( A − λ 1 I ) ] + . . . + d i m [ N ( A − λ k I ) ] = n dim[N(\mathbf A-\lambda_1\mathbf I)]+...+dim[N(\mathbf A-\lambda_k\mathbf I)]=n dim[N(Aλ1I)]+...+dim[N(AλkI)]=n,矩阵可相似对角化
    可以用 n n n个线性无关的特征向量组成可逆矩阵 P \mathbf P P,使 A = P Λ P − 1 \mathbf A=\mathbf P\mathbf \Lambda\mathbf P^{-1} A=P1

此时, A \mathbf A A的特征向量可以给出 C n \mathbb{C}^{n} Cn空间的一组基
或者说, A \mathbf A A的所有特征子空间给出了整个空间的直和分解: N ( A − λ 1 I ) ⊕ ⋯ ⊕ N ( A − λ k I ) = C n N\left(A-\lambda_{1} I\right) \oplus \cdots \oplus N\left(A-\lambda_{k} I\right)=\mathbb{C}^{n} N(Aλ1I)N(AλkI)=Cn

实对称矩阵(n个正交的特征向量)、幂等矩阵(证明见后文)必然可以相似对角化

  • 更一般的,矩阵没有 n n n个线性无关的特征向量,则无法相似对角化,此时只能求Jordan标准型 J \mathbf J J,使 A = P J P − 1 \mathbf A=\mathbf P\mathbf J\mathbf P^{-1} A=PJP1
    此时仅满足 d i m [ N ( ( A − λ 1 I ) n ) ] + . . . + d i m [ N ( ( A − λ k I ) n ) ] = n dim[N((\mathbf A-\lambda_1\mathbf I)^n)]+...+dim[N((\mathbf A-\lambda_k\mathbf I)^n)]=n dim[N((Aλ1I)n)]+...+dim[N((AλkI)n)]=n(代数重数的定义2)

定义特征值 λ i \lambda_i λi广义特征向量 ( A − λ I ) n x = 0 (\mathbf A-\lambda\mathbf I)^n\mathbf x=0 (AλI)nx=0的非零解,
N ( ( A − λ i I ) n ) N((\mathbf A-\lambda_i\mathbf I)^n) N((AλiI)n)称为广义特征子空间(其维数=代数重数, β i = d i m [ N ( ( A − λ i I ) n ) ] \beta_i=dim[N((\mathbf A-\lambda_i\mathbf I)^n)] βi=dim[N((AλiI)n)]

那么,可以用 n n n个线性无关的广义特征向量组成可逆矩阵 P \mathbf P P,使 A = P J P − 1 \mathbf A=\mathbf P\mathbf J\mathbf P^{-1} A=PJP1,见Jordan 标准型-寻找广义特征向量
此时,广义特征子空间给出了整个空间的直和分解: N ( ( A − λ 1 I ) n ) ⊕ ⋯ ⊕ N ( ( A − λ k I ) n ) = C n N\left(\left(A-\lambda_{1} I\right)^{n}\right) \oplus \cdots \oplus N\left(\left(A-\lambda_{k} I\right)^{n}\right)=\mathbb{C}^{n} N((Aλ1I)n)N((AλkI)n)=Cn

例题:证明幂等矩阵一定可以相似对角化

对于幂等矩阵 P \mathbf P P P 2 = P \mathbf P^2=\mathbf P P2=P,幂等矩阵的特征值只可能为0和1(由 P x = λ x \mathbf P\mathbf x=\lambda\mathbf x Px=λx P 2 x = λ 2 x \mathbf P^2\mathbf x=\lambda^2\mathbf x P2x=λ2x可知)
另外, ( I − P ) \mathbf {(I-P)} (IP)也是幂等矩阵( ( I − P ) 2 = I − P \mathbf {(I-P)^2}=\mathbf {I-P} (IP)2=IP
因此有 N ( P n ) = N ( P ) N(\mathbf P^n)=N(\mathbf P) N(Pn)=N(P) N ( ( I − P ) n ) = N ( I − P ) N(\mathbf{(I-P)}^n)=N(\mathbf {I-P}) N((IP)n)=N(IP),由上面的知识,特征值0的代数重数等于几何重数,特征值1的代数重数也等于几何重数,故幂等矩阵一定可以相似对角化文章来源地址https://www.toymoban.com/news/detail-753173.html

到了这里,关于矩阵理论| 基础:特征值与特征向量、代数重数/几何重数、相似对角化和Jordan标准型的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 线性代数|证明:矩阵不同特征值对应的特征向量线性无关

    定理 1 设 λ 1 , λ 2 , ⋯   , λ m lambda_1,lambda_2,cdots,lambda_m λ 1 ​ , λ 2 ​ , ⋯ , λ m ​ 是方阵 A boldsymbol{A} A 的 m m m 个特征值, p 1 , p 2 , ⋯   , p m boldsymbol{p}_1,boldsymbol{p}_2,cdots,boldsymbol{p}_m p 1 ​ , p 2 ​ , ⋯ , p m ​ 依次是与之对应的特征向量,如果 λ 1 , λ 2 , ⋯   , λ

    2024年02月07日
    浏览(46)
  • 线性代数基础 | 特征值和特征向量

    一、特征值和特征向量的定义 A. 特征值的定义和性质 特征值(eigenvalue)是线性代数中一个重要的概念,用于描述线性变换对于某个向量的伸缩效应。在本文中,我们将深入讨论特征值的定义和性质。 首先,我们考虑一个线性变换(或者说一个方阵)A。对于一个非零向量v,

    2024年02月16日
    浏览(31)
  • 线性代数基础【5】特征值和特征向量

    一、特征值和特征向量的理论背景 在一个多项式中,未知数的个数为任意多个,且每一项次数都是2的多项式称为二次型,二次型分为两种类型:即非标准二次型及标准二次型 注意: ①二次型X^T AX为非标准二次型的充分必要条件是A^T=A 但A为非对角矩阵;二次型 X^TAX为标准二次型的充

    2024年01月20日
    浏览(39)
  • 为什么特征值的重数大于等于线性无关特征向量的个数

    关系就是,特征值的重数 ≥ 该特征值的线性无关向量的个数 ≥ 1 量化关系有 特征值的重数,称为 代数重数 ,等于Jordan矩阵中特征值为λ的Jordan块的阶数之和 特征向量的个数,称为 几何重数 ,等于Jordan矩阵中特征值为λ的Jordan块的个数 证明 先说结论 每个矩阵 等价 于一个

    2024年02月11日
    浏览(45)
  • 线性代数的学习和整理19,特征值,特征向量,以及引入的正交化矩阵概念

    目录 1 什么是特征值和特征向量? 1.1 特征值和特征向量这2个概念先放后 1.2 直观定义 1.3 严格定义 2 如何求特征值和特征向量 2.1 方法1:结合图形看,直观方法求 2.1.1 单位矩阵的特征值和特征向量 2.1.2 旋转矩阵 2.2  根据严格定义的公式 A*X=λ*X 来求 2.3  特征方程 2.4 互异特

    2024年02月09日
    浏览(56)
  • 线性代数 --- 特征值与特征向量

    Part I:特征值,特征向量的意义与性质         已知任意向量x,现有矩阵A对x进行操作后,得到新的向量Ax。这就好比是自变量x与函数f(x)的关系一样,向量x通过类似“函数”的处理得到了一个新的向量Ax。这个新的向量可能和原向量x方向相同,也可能不同(事实上大多都不同

    2024年03月10日
    浏览(38)
  • 线性代数——特征值和特征向量

    学习高等数学和线性代数需要的初等数学知识 线性代数——行列式 线性代数——矩阵 线性代数——向量 线性代数——线性方程组 线性代数——特征值和特征向量 线性代数——二次型 本文大部分内容皆来自李永乐老师考研教材和视频课。 设 A = [ a i j ] A=[a_{ij}] A = [ a ij ​

    2024年02月15日
    浏览(33)
  • 线性代数 --- 特征值与特征向量(下)

    Eigen Values Eigen Vectors Part III:如何求解特征向量与特征值 对于一般矩阵A,如何找到他的特征值与特征向量? Step I: Find λ first! 首先,我们有方程: 但这里有两个未知数,因此我们把上面的方程改写一下:         这个齐次方程的解就是矩阵(A-I)的零空间,抛开平凡解全0向

    2024年03月14日
    浏览(36)
  • 线性代数——特征值与特征向量的性质

    (1)设A为方阵,则A与 A T A^{T} A T 有相同的特征值。 此处用到了两个关键性质,一:单位阵的转置为其本身,二:转置并不改变行列式的值。 (2): 设n阶方阵A=( a i j a_{ij} a ij ​ )的n个特征值为 λ 1 lambda_{1} λ 1 ​ , λ 2 lambda_{2} λ 2 ​ ,… λ n lambda_{n} λ n ​ ,则 λ 1 + λ

    2024年02月04日
    浏览(35)
  • 线性代数学习之特征值与特征向量

    在上一次线性代数学习之行列式学习了行列式相关的一些概念,其中也多次提到学好行列式是为了学习“特征值和特征向量”的基础,所以此次就正式进入这块内容的学习,也是线性代数中非常重要的概念,因为它又是线性代数其它重要概念的基石比如矩阵的相似性等等,当

    2024年02月11日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包