《数值分析》-3-特征值与特征矩阵

这篇具有很好参考价值的文章主要介绍了《数值分析》-3-特征值与特征矩阵。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

0.背景

搜索技术的很多方面的知识发现都依赖于特征值或奇异值问题,涉及到特征值计算问题。

计算特征值没有直接的方法。

定位特征值的计算方法基于幂迭代的思想,这是求解特征值的一类迭代方法。该思想的一个复杂版本被称为QR算法,是确定典型矩阵所有特征值的一般方法。

特征值问题若消减为求解根的问题,在稍有误差的多项式上用根求解器求根,会带来灾难性后果。

1.幂迭代法

幂迭代法的主要思想:占优特征值对应的特征向量在多次计算后会在计算过程中占优。

主要方法:归一化和与矩阵A相乘。

随着迭代不断改进了近似的特征向量,那么如何得到特征值呢?瑞利商。

幂迭代法的局限:局限于求解绝对值最大的特征值。

幂迭代法的逆:如果幂迭代法用于矩阵的逆矩阵,可以找到最小的特征值。

现在我们知道了如何找出矩阵的最大或最小值,那么怎么找到其他的特征值呢?

幂迭代法这里给出了一个解决方法:

为了找出矩阵A在实数s附近的特征值,对(A-sI)^-1使用幂迭代法得到(A-sI)^-1的最大特征值b,则x=b^-1+s为矩阵A在实数s附近的特征值。

2.QR算法

QR算法是一种可以一次找出所有特征值的方法。

QR分解是把矩阵分解成一个正交矩阵与一个上三角矩阵的积。QR 分解的实际计算有很多方法,例如 Givens 旋转、Householder 变换,以及 Gram-Schmidt 正交化等等。

for j=1,2,3... 

        海森伯格矩阵,数值分析,学习笔记,矩阵,算法,线性代数

end

      

上述过程可称做归一化同时迭代,在第j步,得到的的列是A的特征向量的近似,对角线元素是近似的特征值。

这种算法成为无移动的QR算法,但是它对于矩阵A的要求很严格(即A为对称矩阵,且满足特征值),即使A是对称矩阵不满足定理的条件时,也可能失败。以及该算法难以做出修改以计算复数特征值,以及迭代速度比较慢。

因此我们需要做出一组改进使得特征值计算更加一般化并加速收敛。

3.上海森伯格

上海森伯格的主要思想是使用上海森伯格形式的相似矩阵替换A,即在QR迭代之前应用相似变换,在A中放置更多的0,同时保持特征值。此外,上海森伯格将消去QR迭代无法收敛到复数特征的问题。

上海森伯格矩阵形式如下图所示:

海森伯格矩阵,数值分析,学习笔记,矩阵,算法,线性代数

那么怎么将矩阵A变换成上海森伯格形式呢?Householder变换。

Householder 变换

Householder 变换可以将向量的某些元素变成零,同时保持该向量的范数不变。

通过逐步在矩阵A的左侧和右侧乘上反射子H,从而得到一个具有相同的特征值的特征矩阵。

做3步运算的结果:

左侧为我们得到的上海森伯格矩阵5x5矩阵,由于该矩阵和A相似,它与A具体相同的特征值以及特征值的重数。

一般的对于一个nxn矩阵A,需要n-2个Householder 步将A变成上海森伯格形式。

4.移动QR算法

移动QR算法则是利用幂迭代的技巧大大加速收敛速度。

为了减少计算量,一般先利用Householder矩阵将矩阵A变成拟上三角矩阵(上海森伯格形式),然后采用双步位移的QR方法计算的特征值。

使用双步位移的QR方法求矩阵A全部特征值的具体算法过程如下:

5.高斯消去与LU分解

高斯消去

高斯消去是求解合适规模的线性方程的有用工具,可以有效地求解具有n个未知数的n个方程。高斯消去主要由两个不等同的部分组成,相对计算代价庞大的消去过程,和相对计算代价小的回代过程。n个方程n个未知数的消去计算,可以在海森伯格矩阵,数值分析,学习笔记,矩阵,算法,线性代数次操作后完成。

LU分解

LU分解是高斯消去的矩阵形式,它包含把系数矩阵A写做下三角矩阵L和上三角矩阵U的乘积。其中,U矩阵是由传统的高斯消去过程得到上三角矩阵,而对应的L矩阵则是:把1放在主对角线上,然后乘子按消去时它们的特定位置放在下三角矩阵得到。

如何利用LU分解转化回代步骤?

Ax=b ---> LUx=b --->c=Ux Lc=b 求c---> Ux=c 求x

但是,并不是所有的矩阵都可以进行LU分解,我们需要在LU分解前做一些工作:部分主元。

部分主元

部分主元的思想是在每一步消除步骤之前,找到第一列中最大的一个元素,其对应行和主元行进行交换,即PA=LU。

高斯列主元法的优势在于它有一个选主元的过程,这样做可以避免程序在进行消去操作时选取的主元素为0的情况,也减小了计算的舍入误差,从而提高了程序的普适性和结果的准确性。文章来源地址https://www.toymoban.com/news/detail-714175.html

到了这里,关于《数值分析》-3-特征值与特征矩阵的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 谈主成分分析/因子分析中的特征值“矩阵近似”

    主成分分析和因子分析是数据降维的常用手段,其中以特征值为载体,在不断降维“近似”原本的协方差矩阵。 CSDN中一些文章在介绍这个问题或者叫“特征值分解”时,讲得都比较学术化,今天用一个小例子,还是面向新人,来引导理解“特征值分解”和“矩阵近似”(图

    2024年02月05日
    浏览(33)
  • 数值线性代数:Arnoldi求解特征值/特征向量

    线性方程组求解 、 最小二乘法 、 特征值/特征向量求解 是(数值)线性代数的主要研究内容。 在力学、气象学、电磁学、金融等学科中,许多问题最终都归结为特征值、特征向量的求解。 ARPACK 使用 IRAM ( Implicit Restarted Arnoldi Method )求解大规模系数矩阵的部分特征值与特征向量

    2024年01月18日
    浏览(44)
  • 线性代数的学习和整理19,特征值,特征向量,以及引入的正交化矩阵概念

    目录 1 什么是特征值和特征向量? 1.1 特征值和特征向量这2个概念先放后 1.2 直观定义 1.3 严格定义 2 如何求特征值和特征向量 2.1 方法1:结合图形看,直观方法求 2.1.1 单位矩阵的特征值和特征向量 2.1.2 旋转矩阵 2.2  根据严格定义的公式 A*X=λ*X 来求 2.3  特征方程 2.4 互异特

    2024年02月09日
    浏览(56)
  • 特征值和特征向量的解析解法--带有重复特征值的矩阵

    当一个矩阵具有重复的特征值时,意味着存在多个线性无关的特征向量对应于相同的特征值。这种情况下,我们称矩阵具有重复特征值。 考虑一个n×n的矩阵A,假设它有一个重复的特征值λ,即λ是特征值方程det(A-λI) = 0的多重根。我们需要找到与特征值λ相关的特征向量。 首

    2024年02月05日
    浏览(33)
  • 线性代数|证明:矩阵特征值的倒数是其逆矩阵的特征值

    性质 1 若 λ lambda λ 是 A boldsymbol{A} A 的特征值,当 A boldsymbol{A} A 可逆时, 1 λ frac{1}{lambda} λ 1 ​ 是 A − 1 boldsymbol{A}^{-1} A − 1 的特征值。 证明 因为 λ lambda λ 是 A boldsymbol{A} A 的特征值,所以有 p ≠ 0 boldsymbol{p} ne 0 p  = 0 使 A p = λ p boldsymbol{A} boldsymbol{p} = lambda

    2024年02月08日
    浏览(36)
  • 【问题证明】矩阵方程化为特征值方程求得的特征值为什么是全部特征值?不会丢解吗?

    这个问题困扰了我好久,一直感觉如果有其他的特征值没法证伪,不过一直存在思想的层面,没有实际解决,今天突然想到动笔来解决,遂得解,证明如下。 这个证明看似证明过后很直观,但实际上思维走向了牛角尖的时候光靠思考是无法得出令人信服的结论的,唯有实际动

    2024年02月05日
    浏览(46)
  • 5.1 矩阵的特征值和特征向量

    学习特征值和特征向量的定义和性质,我会采取以下方法: 1. 学习线性代数基础知识:特征值和特征向量是线性代数中的重要概念,需要先掌握线性代数的基础知识,例如向量、矩阵、行列式、逆矩阵、转置、内积、外积等基本概念。 2. 学习特征值和特征向量的定义:特征

    2024年02月02日
    浏览(40)
  • MATLAB矩阵的特征值与特征向量

    设A是n阶方阵,如果存在常数λ和n维非零列向量x,使得等式Ax = λx 成立,则称λ为A的特征值,x是对应特征值λ的特征向量。 在MATLAB中,计算矩阵的特征值与特征向量的函数是eig,常用的调用格式有两种: E = eig(A):求矩阵A的全部特征向量值,构成向量E。 [X,D] = eig(A):

    2024年02月11日
    浏览(33)
  • 特征值与相似矩阵

    应用:求幂,对角化,二次型,动力系统等等 通俗 ​ 向量α在矩阵A的线性变换作用下,保持方向不变,进行比例为λ的伸缩。 官方(注意是方阵) 特征方程 ​ (λE-A)α = 0 (α!=0)特征向量不能为0,但是 特征值可以为0或虚数 。方程中λ的次数应与A的 阶数相同 ,否则不是

    2024年02月06日
    浏览(38)
  • 线性代数(五) | 矩阵对角化 特征值 特征向量

    矩阵实际上是一种变换,是一种旋转伸缩变换(方阵) 不是方阵的话还有可能是一种升维和降维的变换 直观理解可以看系列超赞视频线性代数-哔哩哔哩_Bilibili 比如A= ( 1 2 2 1 ) begin{pmatrix}12\\\\21end{pmatrix} ( 1 2 ​ 2 1 ​ ) x= ( 1 2 ) begin{pmatrix}1\\\\2end{pmatrix} ( 1 2 ​ ) 我们给x左乘A实际

    2024年02月04日
    浏览(50)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包