为什么特征值的重数大于等于线性无关特征向量的个数

这篇具有很好参考价值的文章主要介绍了为什么特征值的重数大于等于线性无关特征向量的个数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

特征值的重数与线性无关特征向量的个数的关系

关系就是,特征值的重数 ≥ 该特征值的线性无关向量的个数 ≥ 1

量化关系有

特征值的重数,称为代数重数,等于Jordan矩阵中特征值为λ的Jordan块的阶数之和

特征向量的个数,称为几何重数,等于Jordan矩阵中特征值为λ的Jordan块的个数

证明

先说结论

每个矩阵等价于一个标准形

A ≅ ( E r 0 0 0 ) A\cong\begin{pmatrix} E_r\quad 0 \\ 0 \quad 0\end{pmatrix} A(Er000)

每个矩阵相似于一个Jordan标准形

A ∼ J = ( λ 1 σ λ 2 σ λ 3 σ ⋱ λ n ) n i σ = 0   o r   1 A\sim J=\begin{pmatrix}& \lambda_1 & \sigma & & & &\\& & \lambda_2 & \sigma & & &\\& & & \lambda_3 & \sigma & &\\& & & & \ddots & &\\& & & & & \lambda_n &\\\end{pmatrix}_{n_i}\\\sigma=0~or~1 AJ= λ1σλ2σλ3σλn niσ=0 or 1

当矩阵A相似的Jordan标准形中的所有的 σ \sigma σ都=0时,Jordan标准形就是对角矩阵,矩阵可对角化,此时的Jordan标准形就是可对角化的对角矩阵 Λ \Lambda Λ

也就是每个Jordan块都是1阶的时候,矩阵可以对角化。

此时的量化关系就是,代数重数=几何重数,n个特征值的特征向量都是线性无关的。

现在来证明一下这个结论。

为什么当 σ = 0 \sigma=0 σ=0的时候,代数重数=几何重数。

代数重数

对于特征值 λ = η \lambda=\eta λ=η的重数,即代数重数。就是 φ ( λ ) = ∣ A − λ E ∣ \varphi(\lambda)=|A-\lambda E| φ(λ)=AλE ( η − λ ) k (\eta-\lambda)^k (ηλ)k的k次方。

因为,A与J相似,则A与J的特征多项式相等。

证明:   J − λ E = P − 1 A P − λ P − 1 E P = P − 1 ( A − λ E ) P \ J-\lambda E = P^{-1}AP-\lambda P^{-1}EP = P^{-1}(A-\lambda E)P  JλE=P1APλP1EP=P1(AλE)P

  ∣ J − λ E ∣ = ∣ P − 1 ∣   ∣ A − λ E ∣   ∣ P ∣ = 1 ∣ P ∣   ∣ A − λ E ∣   ∣ P ∣ \ |J-\lambda E| = |P^{-1}|\ |A-\lambda E|\ |P| = \dfrac{1}{|P|}\ |A-\lambda E|\ |P|  JλE=P1 AλE P=P1 AλE P

所以,代数重数就是 ∣ J − λ E ∣ |J-\lambda E| JλE ( η − λ ) k (\eta-\lambda)^k (ηλ)k的k次方。
∣ J − λ E ∣ = ∣ λ 1 − λ σ λ 2 − λ σ λ 3 − λ σ ⋱ λ n − λ ∣ n σ = 0   o r   1 |J-\lambda E|=\begin{vmatrix} & \lambda_1-\lambda & \sigma & & & &\\ & & \lambda_2-\lambda & \sigma & & &\\ & & & \lambda_3-\lambda & \sigma & &\\ & & & & \ddots & &\\ & & & & & \lambda_n-\lambda &\\ \end{vmatrix}_{n}\\ \sigma=0~or~1 JλE= λ1λσλ2λσλ3λσλnλ nσ=0 or 1
∣ J − λ E ∣ |J-\lambda E| JλE是一个上对角矩阵,因此,只要看对角线上乘积的结果,就可以得到 ( η − λ ) k (\eta-\lambda)^k (ηλ)k的k值。

用Jordan块的方式表示如下

∣ J − λ E ∣ = ∣ J 1 − λ E J 2 − λ E J 3 − λ E ⋱ J n − λ E ∣ n |J-\lambda E| =\begin{vmatrix} & J_1-\lambda E & & & & &\\ & & J_2-\lambda E & & & &\\ & & & J_3-\lambda E & & &\\ & & & & \ddots & &\\ & & & & & J_n-\lambda E &\\ \end{vmatrix}_{n}\\ JλE= J1λEJ2λEJ3λEJnλE n

对于一个单个的Jordan块

∣ J i − λ E ∣ = ∣ λ i − λ 1 λ i − λ 1 λ i − λ 1 ⋱ λ i − λ ∣ n i n i 是初等因子中 ( λ i − λ ) n i 的次数 |J_i-\lambda E|=\begin{vmatrix}& \lambda_i-\lambda & 1 & & & &\\& & \lambda_i-\lambda & 1 & & &\\& & & \lambda_i-\lambda & 1 & &\\& & & & \ddots & &\\& & & & & \lambda_i-\lambda &\\\end{vmatrix}_{n_i}\\n_i是初等因子中(\lambda_i-\lambda)^{n_i}的次数 JiλE= λiλ1λiλ1λiλ1λiλ nini是初等因子中(λiλ)ni的次数
介绍到这里我们就可以得出结论了,对于Jordan标准型,代数重数是 ∣ J − λ E ∣ |J-\lambda E| JλE ( η − λ ) k (\eta-\lambda)^k (ηλ)k的k次方。而对于Jordan块,对于 λ i = η \lambda_i=\eta λi=η的Jordan块, λ i = η \lambda_i=\eta λi=η的代数重数是Jordan块的重数 n i n_{i} ni;对于对于 λ i ≠ η \lambda_i \ne \eta λi=η的Jordan块,则 λ i = η \lambda_i=\eta λi=η的代数重数就是0。

因此,代数重数就是 λ i = η \lambda_i=\eta λi=η的Jordan块的阶数之和(当然仅靠观察也可以得出这个结论)
r = ∑ i = 1 k n i ( r 是特征值 η 的重数, k 是 λ i = η 的 J o r d a n 块的个数 ) r=\sum_{i=1}^{k}n_{i}(r是特征值\eta的重数,k是\lambda_i=\eta的Jordan块的个数) r=i=1kni(r是特征值η的重数,kλi=ηJordan块的个数)

几何重数

对于特征值 λ = η \lambda=\eta λ=η的线性无关的特征向量的个数,即几何重数。就是 ∣ A − η E ∣ X = O |A-\eta E|X=O AηEX=O的齐次方程的基础解系的个数,自由变量的个数。也就是特征多项式 ∣ A − η E ∣ |A-\eta E| AηE中全为0的行的个数,几何重数= n − R ( A − η E ) n-R(A-\eta E) nR(AηE)

这时我们就发现, 当 λ i = η 时 当\lambda_i=\eta时 λi=η一个Jordan块只能得到一个全零行,一个自由变量,一个线性无关的解向量;当 λ i ≠ η \lambda_i \ne \eta λi=η时,必然没有一个全0行
当 λ i = η 时,最后一行全为 0 ∣ J i − η E ∣ = ∣ η − η 1 η − η 1 η − η 1 ⋱ η − η ∣ n i = ∣ 0 1 0 1 0 1 ⋱ 0 ∣ n i 当\lambda_i=\eta时,最后一行全为0\\|J_i-\eta E|=\begin{vmatrix}& \eta-\eta & 1 & & & &\\& & \eta-\eta & 1 & & &\\& & & \eta-\eta & 1 & &\\& & & & \ddots & &\\& & & & & \eta-\eta &\\\end{vmatrix}_{n_i}\\=\begin{vmatrix}& 0 & 1 & & & &\\& & 0 & 1 & & &\\& & & 0 & 1 & &\\& & & & \ddots & &\\& & & & & 0 &\\\end{vmatrix}_{n_i}\\ λi=η时,最后一行全为0JiηE= ηη1ηη1ηη1ηη ni= 0101010 ni

当 λ i ≠ η 时,必然没有一个全 0 行 ∣ J i − η E ∣ = ∣ λ i − η 1 λ i − η 1 λ i − η 1 ⋱ λ i − η ∣ n i 当\lambda_i \ne \eta时,必然没有一个全0行\\|J_i-\eta E|=\begin{vmatrix}& \lambda_i-\eta & 1 & & & &\\& & \lambda_i-\eta & 1 & & &\\& & & \lambda_i-\eta & 1 & &\\& & & & \ddots & &\\& & & & & \lambda_i-\eta &\\\end{vmatrix}_{n_i}\\ λi=η时,必然没有一个全0JiηE= λiη1λiη1λiη1λiη ni

因此,几何重数=当 λ i = η \lambda_i=\eta λi=η时的Jordan块的个数k。

现在我们就得到了,几何重数和代数重数的量化关系
几何重数 = k 代数重数 = ∑ i = 1 k n i k 是 λ i = η 的 J o r d a n 块的个数 几何重数=k\\代数重数=\sum_{i=1}^{k}n_{i}\\k是\lambda_i=\eta的Jordan块的个数 几何重数=k代数重数=i=1knikλi=ηJordan块的个数
因此当且仅当所有 n i = 1 n_i=1 ni=1的时候,几何重数=代数重数,矩阵可对角化。

【概念】Jordan 约旦(若尔当)矩阵

https://www.zhihu.com/question/379643506

Jordan矩阵是《矩阵论》《矩阵分析》第一章的内容

任意一个矩阵A都相似于一个Jordan矩阵标准形
( J 1 0 0 J n ) \begin{pmatrix} J_1 \quad 0 \\ 0 \quad J_n\end{pmatrix} (J100Jn)
类似于等价一个标准形
( E r 0 0 0 ) \begin{pmatrix} E_r\quad 0 \\ 0 \quad 0\end{pmatrix} (Er000)

Jordan 约旦块

上述Jordan标准型的 J i J_i Ji就是一个约旦块
J i = ( λ i 1 λ i 1 λ i 1 ⋱ 1 λ i ) 其中 λ 1 , λ 2 , ⋯   , λ n 就是对应一个 A 的特征值 J_i= \begin{pmatrix} & \lambda_i & 1 & & & &\\ & & \lambda_i & 1 & & &\\ & & & \lambda_i & 1 & &\\ & & & & \ddots & 1 &\\ & & & & & \lambda_i &\\ \end{pmatrix}\\ 其中\lambda_{1},\lambda_{2},\cdots,\lambda_{n}就是对应一个A的特征值 Ji= λi1λi1λi11λi 其中λ1,λ2,,λn就是对应一个A的特征值

Smith标准形

( d 1 ( λ ) d 2 ( λ ) d 3 ( λ ) ⋱ d n ( λ ) ) \begin{pmatrix} & d_1(\lambda) & & & & &\\ & & d_2(\lambda) & & & &\\ & & & d_3(\lambda) & & &\\ & & & & \ddots & &\\ & & & & & d_n(\lambda) &\\ \end{pmatrix}\\ d1(λ)d2(λ)d3(λ)dn(λ)

a%b=0,a能被b整除(或说b能整除a),记作b|a

满足:

  1. 后面的可以整除前面的 d n ( λ ) % d n − 1 ( λ ) = 0 或 d n − 1 ( λ ) ∣ d n ( λ ) d_n(\lambda) \% d_{n-1}(\lambda)=0 \quad 或 d_{n-1}(\lambda) | d_{n}(\lambda) dn(λ)%dn1(λ)=0dn1(λ)dn(λ)
不变因子

Smith标准形中 d i ( λ ) d_i(\lambda) di(λ)就是不变因子

初等因子

所有不变因子中的关于λ的多项式 ( λ − b ) k ( k > 0 ) (\lambda-b)^k(k>0) (λb)k(k>0)都是初等因子

行列式因子

一个矩阵的所有的k阶子式中的首一最大公因式就是,k阶行列式因子, D k ( λ ) D_k(\lambda) Dk(λ)

首一最大公因子:首项系数是1的最大公因式,也就是最高次项系数是1的最大公因式。只能是kλ+b

行列式因子可以转化为不变因子
d 1 ( λ ) = D 1 ( λ ) d k ( λ ) = D k ( λ ) D k − 1 ( λ ) d_{1}(\lambda) = D_{1}(\lambda)\\ d_{k}(\lambda) = \dfrac{D_{k}(\lambda)}{D_{k-1}(\lambda)} d1(λ)=D1(λ)dk(λ)=Dk1(λ)Dk(λ)

Jordan标准形的求法

通过初等因子,可以写出Jordan块

比如对于 ( λ − 2 ) 2 ( λ − 1 ) (\lambda-2)^2(\lambda-1) (λ2)2(λ1)可以写出两个Jordan块
( 2 1 0 2 ) 和 ( 1 ) \begin{pmatrix} 2 \quad 1 \\ 0 \quad 2\end{pmatrix} 和(1) (2102)(1)
拼起来,得到 Jordan标准型为
( 2 1 0 0 2 0 0 0 1 ) \begin{pmatrix} 2 \quad 1 \quad 0 \\ 0 \quad 2 \quad 0\\0 \quad 0 \quad 1\end{pmatrix} 210020001
或者
( 1 0 0 0 2 1 0 0 2 ) \begin{pmatrix}1 \quad 0 \quad 0\\ 0 \quad 2 \quad 1 \\ 0 \quad 0 \quad 2\\\end{pmatrix} 100021002
Jordan标准形不计排列顺序。

初等因子可以通过两种方式求得,通过初等变换得到Smith标准型,或通过计算行列式因子得到不变因子

1 初等变换法

特征值的重数和特征向量的个数,线性代数,矩阵,机器学习
特征值的重数和特征向量的个数,线性代数,矩阵,机器学习

特征值的重数和特征向量的个数,线性代数,矩阵,机器学习

2 行列式因子法

特征值的重数和特征向量的个数,线性代数,矩阵,机器学习
特征值的重数和特征向量的个数,线性代数,矩阵,机器学习

特征值的重数和特征向量的个数,线性代数,矩阵,机器学习文章来源地址https://www.toymoban.com/news/detail-670092.html

到了这里,关于为什么特征值的重数大于等于线性无关特征向量的个数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 特征值和特征向量的解析解法--带有重复特征值的矩阵

    当一个矩阵具有重复的特征值时,意味着存在多个线性无关的特征向量对应于相同的特征值。这种情况下,我们称矩阵具有重复特征值。 考虑一个n×n的矩阵A,假设它有一个重复的特征值λ,即λ是特征值方程det(A-λI) = 0的多重根。我们需要找到与特征值λ相关的特征向量。 首

    2024年02月05日
    浏览(48)
  • 线性代数高级--二次型--特征值与特征向量--特征值分解--多元函数的泰勒展开

    目录 二次型 概念 示例   性质和特点 特征值与特征向量 概念 示例  注意  性质和特点  特征值分解 注意 多元函数的泰勒展开  回顾一元函数泰勒展开  多元函数的泰勒展开 概念 二次型是一个关于向量的二次多项式,通常用矩阵表示。 考虑一个n维向量x = [x₁, x₂, ...,

    2024年02月11日
    浏览(55)
  • 12、特征值与特征向量

    目录 一、特征值和特征向量的定义 二、特征值和特征向量的相关函数 三、特征值和特征向量的计算 假设A是一个n×n的矩阵,A的特征值问题就是找到下面方程组的解: 其中,λ为标量,V为矢量,若把矩阵A的n个特征值放在矩阵P的对角线上,相应的特征向量按照与特征值对应

    2024年02月07日
    浏览(46)
  • 警惕看不见的重试机制:为什么使用RPC必须考虑幂等性

    在RPC场景中因为重试或者没有实现幂等机制而导致的重复数据问题,必须引起大家重视,有可能会造成例如一次购买创建多笔订单,一条通知信息被发送多次等问题,这是技术人员必须面对和解决的问题。 有人可能会说:当调用失败时程序并没有显示重试,为什么还会产生重

    2024年02月06日
    浏览(40)
  • 线性代数|证明:矩阵特征值的倒数是其逆矩阵的特征值

    性质 1 若 λ lambda λ 是 A boldsymbol{A} A 的特征值,当 A boldsymbol{A} A 可逆时, 1 λ frac{1}{lambda} λ 1 ​ 是 A − 1 boldsymbol{A}^{-1} A − 1 的特征值。 证明 因为 λ lambda λ 是 A boldsymbol{A} A 的特征值,所以有 p ≠ 0 boldsymbol{p} ne 0 p  = 0 使 A p = λ p boldsymbol{A} boldsymbol{p} = lambda

    2024年02月08日
    浏览(50)
  • 线性代数——特征值和特征向量

    学习高等数学和线性代数需要的初等数学知识 线性代数——行列式 线性代数——矩阵 线性代数——向量 线性代数——线性方程组 线性代数——特征值和特征向量 线性代数——二次型 本文大部分内容皆来自李永乐老师考研教材和视频课。 设 A = [ a i j ] A=[a_{ij}] A = [ a ij ​

    2024年02月15日
    浏览(45)
  • 线性代数 --- 特征值与特征向量

    Part I:特征值,特征向量的意义与性质         已知任意向量x,现有矩阵A对x进行操作后,得到新的向量Ax。这就好比是自变量x与函数f(x)的关系一样,向量x通过类似“函数”的处理得到了一个新的向量Ax。这个新的向量可能和原向量x方向相同,也可能不同(事实上大多都不同

    2024年03月10日
    浏览(50)
  • 特征值和特征向量的通俗解释

    我们知道,特征向量的公式是                 ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​         其中A代表矩阵,x代表特征向量,代表特征值。 众所

    2024年02月15日
    浏览(33)
  • 《数值分析》-3-特征值与特征矩阵

    搜索技术的很多方面的知识发现都依赖于特征值或奇异值问题,涉及到特征值计算问题。 计算特征值没有直接的方法。 定位特征值的计算方法基于幂迭代的思想,这是求解特征值的一类迭代方法。该思想的一个复杂版本被称为QR算法,是确定典型矩阵所有特征值的一般方法。

    2024年02月08日
    浏览(48)
  • 线性代数基础 | 特征值和特征向量

    一、特征值和特征向量的定义 A. 特征值的定义和性质 特征值(eigenvalue)是线性代数中一个重要的概念,用于描述线性变换对于某个向量的伸缩效应。在本文中,我们将深入讨论特征值的定义和性质。 首先,我们考虑一个线性变换(或者说一个方阵)A。对于一个非零向量v,

    2024年02月16日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包