6.7 广义特征向量与特征空间

这篇具有很好参考价值的文章主要介绍了6.7 广义特征向量与特征空间。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。


  之前把广义特征向量放在特征值的第一篇文章里,我后来觉得对初学者太不友好了,所以剪出来,单独作为一篇文章。

1 特征空间

  前面说过矩阵不过是把自己的特征向量给延长或缩短了,为了求特征值和特征向量,我们有以下的方程:
( A − λ I ) v = 0 (A-\lambda I)v=0 (AλI)v=0
  把某个特征值代进去,得到的 A − λ I A-\lambda I AλI是一个矩阵,这个矩阵会把对应的特征向量变成0向量。这群向量构成了一个空间,这个空间就叫做特征空间
  可以举个例子:
A = ( 2.0 1.0 − 1.0 1.0 2.0 − 1.0 − 1.0 − 1.0 2.0 ) A − λ I = ( 1.0 1.0 − 1.0 1.0 1.0 − 1.0 − 1.0 − 1.0 1.0 ) A=\begin{pmatrix} 2.0 & 1.0 & -1.0\\ 1.0 & 2.0 & -1.0\\ -1.0 & -1.0 & 2.0 \end{pmatrix}\\ A-\lambda I=\begin{pmatrix} 1.0 & 1.0 & -1.0\\ 1.0 & 1.0 & -1.0\\ -1.0 & -1.0 & 1.0 \end{pmatrix}\\ A= 2.01.01.01.02.01.01.01.02.0 AλI= 1.01.01.01.01.01.01.01.01.0
  然后我们根据定义解下齐次线性方程组就可以了。
( 1.0 1.0 − 1.0 1.0 1.0 − 1.0 − 1.0 − 1.0 1.0 ) ∼ ( 1.0 1.0 − 1.0 0.0 0.0 0.0 0.0 0.0 0.0 ) ∴ v = k 1 ( 1 0 1 ) + k 2 ( 0 1 1 ) \begin{pmatrix} 1.0 & 1.0 & -1.0\\ 1.0 & 1.0 & -1.0\\ -1.0 & -1.0 & 1.0 \end{pmatrix} \sim \begin{pmatrix} 1.0 & 1.0 & -1.0\\ 0.0 & 0.0 & 0.0\\ 0.0 & 0.0 & 0.0 \end{pmatrix}\\ \therefore v=k_1\begin{pmatrix}1\\0\\1\end{pmatrix}+k_2\begin{pmatrix}0\\1\\1\end{pmatrix} 1.01.01.01.01.01.01.01.01.0 1.00.00.01.00.00.01.00.00.0 v=k1 101 +k2 011
  所以这个特征空间的两个基就求出来了。我们再试一下下一个特征值4:
A = ( 2.0 1.0 − 1.0 1.0 2.0 − 1.0 − 1.0 − 1.0 2.0 ) A − λ I = ( − 2.0 1.0 − 1.0 1.0 − 2.0 − 1.0 − 1.0 − 1.0 − 2.0 ) A=\begin{pmatrix} 2.0 & 1.0 & -1.0\\ 1.0 & 2.0 & -1.0\\ -1.0 & -1.0 & 2.0 \end{pmatrix}\\ A-\lambda I=\begin{pmatrix} -2.0 & 1.0 & -1.0\\ 1.0 & -2.0 & -1.0\\ -1.0 & -1.0 & -2.0 \end{pmatrix}\\ A= 2.01.01.01.02.01.01.01.02.0 AλI= 2.01.01.01.02.01.01.01.02.0
  同样,解一下这个齐次方程组:
( − 2.0 1.0 − 1.0 1.0 − 2.0 − 1.0 − 1.0 − 1.0 − 2.0 ) ∼ ( − 2.0 1.0 − 1.0 0.0 1.0 1.0 0.0 0.0 0.0 ) ∴ v = k ( 0 1 1 ) \begin{pmatrix} -2.0 & 1.0 & -1.0\\ 1.0 & -2.0 & -1.0\\ -1.0 & -1.0 & -2.0 \end{pmatrix} \sim \begin{pmatrix} -2.0 & 1.0 & -1.0\\ 0.0 & 1.0 & 1.0\\ 0.0 & 0.0 & 0.0 \end{pmatrix}\\ \therefore v=k\begin{pmatrix}0\\1\\1\end{pmatrix} 2.01.01.01.02.01.01.01.02.0 2.00.00.01.01.00.01.01.00.0 v=k 011
  这样两个特征值的特征空间就求出来了。

2 广义特征向量

  有了特征向量和特征向量构成的特征空间,我们知道 A − λ I A-\lambda I AλI可以把特征空间里的向量变成0。我们再想想, ( A − λ I ) 2 (A-\lambda I)^2 (AλI)2能不能把某个向量变成0呢?三次方呢?四次方呢?有了方向,数学家们就开始思考了,于是有了广义特征向量的定义:
( A − λ I ) j v = 0 (A-\lambda I)^jv=0 (AλI)jv=0
  公式中v被成为广义特征向量generalized eigenvector,对于某个固定的v,上述公式中的 j j j的最小值是广义特征向量的下标index。毫无疑问,特征向量本身是一个j=1的广义特征向量。我们举个例子:
A = ( 2 1 1 − 2 − 1 − 2 1 1 2 ) λ = 1 A= \begin{pmatrix} 2 & 1 & 1\\ -2 & -1 & -2\\ 1 & 1 & 2 \end{pmatrix}\\ \lambda=1 A= 221111122 λ=1
  以 λ 1 = 2 \lambda_1=2 λ1=2为例子,求它的特征方程:
A = ( 3 1 1 − 2 0 − 2 1 1 3 ) A − 2 I = ( 1 1 1 − 2 − 2 − 2 1 1 1 ) ∼ ( 1 1 1 0 0 0 0 0 0 ) v = k 1 ( − 1 1 0 ) + k 2 ( − 1 0 1 ) ( A − 2 I ) 2 = ( 0 0 0 0 0 0 0 0 0 ) v = k 1 ( 1 0 0 ) + k 2 ( 0 1 0 ) + k 3 ( 0 0 1 ) A=\begin{pmatrix} 3 & 1 & 1\\ -2 & 0 & -2\\ 1 & 1 & 3 \end{pmatrix} \\ A-2I= \begin{pmatrix} 1 & 1 & 1\\ -2 & -2 & -2\\ 1 & 1 & 1 \end{pmatrix} \sim \begin{pmatrix} 1 & 1 & 1\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}\\ v=k_1\begin{pmatrix}-1\\1\\0\end{pmatrix}+k_2\begin{pmatrix}-1\\0\\1\end{pmatrix}\\ (A-2I)^2= \begin{pmatrix} 0 & 0 & 0\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}\\ v=k_1\begin{pmatrix}1\\0\\0\end{pmatrix}+k_2\begin{pmatrix}0\\1\\0\end{pmatrix}+k_3\begin{pmatrix}0\\0\\1\end{pmatrix}\\ A= 321101123 A2I= 121121121 100100100 v=k1 110 +k2 101 (A2I)2= 000000000 v=k1 100 +k2 010 +k3 001
  所以j到2时,再乘什么都是0矩阵了,广义特征向量就是任意向量,再乘方就没意义了。

3 广义特征空间

  对于上述的规律,我们总在j增大到一定程度后,广义特征向量所在的空间是不会增大的。所以对某个特定的特征值定义了以下空间:
E j ( λ ) = { v ∣ ( A − λ I ) j v = 0 } E_j(\lambda)=\{v|(A-\lambda I)^jv=0\} Ej(λ)={v(AλI)jv=0}
  当 j j j无穷大时定义的空间 E ∞ ( λ ) E_\infty(\lambda) E(λ),被称为广义特征空间generalized eigenspace。但是也不要看到无穷就悲观,因为前面我们说了当j到一定程度时, E j ( λ ) E_j(\lambda) Ej(λ)空间不再扩大,这个时候就等于广义特征空间,这时候的 j j j被称为广义特征向量最大下标maximum index of
a generalized eigenvector of A associated to λ
,数学符号为 m a x max max- i n d ( λ ) ind(\lambda) ind(λ)。实际上 m a x max max- i n d ( λ ) ind(\lambda) ind(λ)等于该特征值最大约当块的行数。所以利用这个特性,可以快速确定矩阵的约当标准型。如下面的矩阵:
( 2 1 − 1 1 2 − 1 − 1 − 1 2 ) λ 1 = λ 2 = 1 , λ 3 = 4 \begin{pmatrix} 2 & 1 & -1\\ 1 & 2 & -1\\ -1 & -1 & 2 \end{pmatrix}\\ \lambda_1=\lambda_2=1,\lambda_3=4 211121112 λ1=λ2=1,λ3=4
  它的约当标准型有两种可能:
( 1 1 0 0 1 0 0 0 4 ) o r ( 1 0 0 0 1 0 0 0 4 ) \begin{pmatrix} 1 & 1 & 0\\ 0 & 1& 0\\ 0 & 0 & 4 \end{pmatrix}or \begin{pmatrix} 1 & 0 & 0\\ 0 & 1& 0\\ 0 & 0 & 4 \end{pmatrix} 100110004 or 100010004
  那么到底是哪一种?这个时候就需要用特征空间了,求出 m a x max max- i n d ( 1 ) ind(1) ind(1)。那只能拿特征方程计算下呗:
A − λ I = ( 1 1 − 1 1 1 − 1 − 1 − 1 1 ) ∼ ( 1 1 − 1 0 0 0 0 0 0 ) ( A − λ I ) 2 = ( 3 3 − 3 3 3 − 3 − 3 − 3 3 ) ∼ ( 1 1 − 1 0 0 0 0 0 0 ) A-\lambda I=\begin{pmatrix} 1 & 1 & -1\\ 1 & 1 & -1\\ -1 & -1 & 1 \end{pmatrix} \sim \begin{pmatrix} 1 & 1 & -1\\ 0 & 0 & 0\\ 0 & 0 & 0\end{pmatrix}\\ (A-\lambda I)^2=\begin{pmatrix} 3 & 3 & -3\\ 3 & 3 & -3\\ -3 & -3 & 3 \end{pmatrix}\sim \begin{pmatrix} 1 & 1 & -1\\ 0 & 0 & 0\\ 0 & 0 & 0 \end{pmatrix}\\ AλI= 111111111 100100100 (AλI)2= 333333333 100100100
  特征方程的二次方并没有变成0矩阵,说明 m a x {max} max- i n d ( 1 ) = 1 {ind}(1)=1 ind(1)=1,所以约当标准型为:
( 1 0 0 0 1 0 0 0 4 ) \begin{pmatrix} 1 & 0 & 0\\ 0 & 1& 0\\ 0 & 0 & 4 \end{pmatrix} 100010004 文章来源地址https://www.toymoban.com/news/detail-599054.html

到了这里,关于6.7 广义特征向量与特征空间的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 线性代数|证明:矩阵不同特征值对应的特征向量线性无关

    定理 1 设 λ 1 , λ 2 , ⋯   , λ m lambda_1,lambda_2,cdots,lambda_m λ 1 ​ , λ 2 ​ , ⋯ , λ m ​ 是方阵 A boldsymbol{A} A 的 m m m 个特征值, p 1 , p 2 , ⋯   , p m boldsymbol{p}_1,boldsymbol{p}_2,cdots,boldsymbol{p}_m p 1 ​ , p 2 ​ , ⋯ , p m ​ 依次是与之对应的特征向量,如果 λ 1 , λ 2 , ⋯   , λ

    2024年02月07日
    浏览(58)
  • 线性代数 第五章 特征值与特征向量

    一、特征值定义 二、特征值求法 定义法; ; 相似。 三、特征向量求法 定义法; 基础解系法; ; 相似。 四、特征值性质 不同特征值的特征向量线性无关 k重特征值至多有k个线性无关的特征向量 五、相似的定义 若,则A和B相似。 六、相似的性质(必要条件) 七、可对角

    2024年02月06日
    浏览(50)
  • 线性代数——特征值与特征向量的性质

    (1)设A为方阵,则A与 A T A^{T} A T 有相同的特征值。 此处用到了两个关键性质,一:单位阵的转置为其本身,二:转置并不改变行列式的值。 (2): 设n阶方阵A=( a i j a_{ij} a ij ​ )的n个特征值为 λ 1 lambda_{1} λ 1 ​ , λ 2 lambda_{2} λ 2 ​ ,… λ n lambda_{n} λ n ​ ,则 λ 1 + λ

    2024年02月04日
    浏览(46)
  • 线性代数学习之特征值与特征向量

    在上一次线性代数学习之行列式学习了行列式相关的一些概念,其中也多次提到学好行列式是为了学习“特征值和特征向量”的基础,所以此次就正式进入这块内容的学习,也是线性代数中非常重要的概念,因为它又是线性代数其它重要概念的基石比如矩阵的相似性等等,当

    2024年02月11日
    浏览(54)
  • 线性代数基础【5】特征值和特征向量

    一、特征值和特征向量的理论背景 在一个多项式中,未知数的个数为任意多个,且每一项次数都是2的多项式称为二次型,二次型分为两种类型:即非标准二次型及标准二次型 注意: ①二次型X^T AX为非标准二次型的充分必要条件是A^T=A 但A为非对角矩阵;二次型 X^TAX为标准二次型的充

    2024年01月20日
    浏览(49)
  • 线性代数中矩阵的特征值与特征向量

    作者:禅与计算机程序设计艺术 在线性代数中,如果一个$ntimes n$的方阵$A$满足如下两个条件之一: $A$存在实数特征值,即$exists xneq 0:Ax=kx$,其中$kin mathbb{R}$; $lambda_{max}(A)neq 0$($lambda_{max}(A)$表示$A$的最大特征值),且$||x_{lambda_{max}(A)}||=sqrt{frac{lambda_{max}(A)}{lambda_{

    2024年02月08日
    浏览(52)
  • 线性代数(五) | 矩阵对角化 特征值 特征向量

    矩阵实际上是一种变换,是一种旋转伸缩变换(方阵) 不是方阵的话还有可能是一种升维和降维的变换 直观理解可以看系列超赞视频线性代数-哔哩哔哩_Bilibili 比如A= ( 1 2 2 1 ) begin{pmatrix}12\\\\21end{pmatrix} ( 1 2 ​ 2 1 ​ ) x= ( 1 2 ) begin{pmatrix}1\\\\2end{pmatrix} ( 1 2 ​ ) 我们给x左乘A实际

    2024年02月04日
    浏览(64)
  • 线性代数---第五章特征值和特征向量

    当特征值是二重根时,有可能有一个线性无关的特征向量,也有可能有两个线性无关的特征向量

    2023年04月17日
    浏览(43)
  • 线性代数中的特征值和特征向量

    现将下文需要运用到的一些概念进行解释说明以便读者更好理解 其中,我们要注意两点: (1)A是方阵(对于非方阵,是没有特征值的,但会有条件数)  (2)特征向量为非0列向量 我们再来看看两个相关定理  定理5.1说明了一个矩阵的几个特征向量线性无关 定义5.1的第一

    2024年02月01日
    浏览(47)
  • 数值线性代数:Arnoldi求解特征值/特征向量

    线性方程组求解 、 最小二乘法 、 特征值/特征向量求解 是(数值)线性代数的主要研究内容。 在力学、气象学、电磁学、金融等学科中,许多问题最终都归结为特征值、特征向量的求解。 ARPACK 使用 IRAM ( Implicit Restarted Arnoldi Method )求解大规模系数矩阵的部分特征值与特征向量

    2024年01月18日
    浏览(51)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包