特征值求导推导

这篇具有很好参考价值的文章主要介绍了特征值求导推导。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

设矩阵 A A A的第 i i i大特征值为 λ i \lambda_i λi, 对应特征向量 v i v_i vi A = A H A=A^H A=AH 求:
∇ A λ i = ∂ λ i ∂ A ∗ \nabla_A\lambda_i=\frac{\partial \lambda_i}{\partial A^*} Aλi=Aλi

目标: 写出 d λ i = t r ( B d A H ) d\lambda_i=tr(BdA^H) dλi=tr(BdAH)
则有 ∇ A λ i = B \nabla_A\lambda_i=B Aλi=B

根据特征值定义: A v i = λ i v i , v i H v i = 1 Av_i=\lambda_iv_i, v_i^Hv_i=1 Avi=λivi,viHvi=1
有:
d ( A v 1 ) = d A ∗ v 1 + A d v i = d ( λ i v i ) = d λ i ∗ v i + λ i ( d v i ) (1) d(Av_1)=dA * v_1 + Adv_i =d(\lambda_iv_i)=d\lambda_i *v_i +\lambda_i (dv_i)\tag{1} d(Av1)=dAv1+Advi=d(λivi)=dλivi+λi(dvi)(1)
以及:
d ( v i H v i ) = d ( 1 ) = 0 = 2 v i H d v i ⇒ v i H d v i = 0 d(v_i^Hv_i)=d(1)=0=2v_i^Hdv_i\Rightarrow v_i^Hdv_i =0 d(viHvi)=d(1)=0=2viHdviviHdvi=0
将式(1)左右左乘 v i H v_i^H viH, 得到:
v i H ( d A ) v i + v i H A d v i = v i H ( d λ i ) v i + v i H λ i ( d v i ) v_i^H(dA)v_i +v_i^HAdv_i=v_i^H(d\lambda_i)v_i+v_i^H\lambda_i(dv_i) viH(dA)vi+viHAdvi=viH(dλi)vi+viHλi(dvi)
v i H A = λ i v i v_i^HA=\lambda_iv_i viHA=λivi, 因此 v i H A d v i = 0 v_i^HAdv_i=0 viHAdvi=0。 类似的, v i H λ i ( d v i ) = 0 v_i^H\lambda_i(dv_i)=0 viHλi(dvi)=0
因此:
v i H ( d A ) v i = v i H ( d λ i ) v i = v i H v i d λ i = d λ i v_i^H(dA)v_i=v_i^H(d\lambda_i)v_i=v_i^Hv_id\lambda_i=d\lambda_i viH(dA)vi=viH(dλi)vi=viHvidλi=dλi
因此 ( d A = d A H ) (dA = dA^H) (dA=dAH)
d λ i = t r ( v i v i H d A H ) d\lambda_i = tr(v_iv_i^HdA^H) dλi=tr(viviHdAH)
∇ A λ i = B = v i v i H \nabla_A\lambda_i=B = v_iv_i^H Aλi=B=viviH文章来源地址https://www.toymoban.com/news/detail-604366.html

到了这里,关于特征值求导推导的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 特征值和特征向量的解析解法--带有重复特征值的矩阵

    当一个矩阵具有重复的特征值时,意味着存在多个线性无关的特征向量对应于相同的特征值。这种情况下,我们称矩阵具有重复特征值。 考虑一个n×n的矩阵A,假设它有一个重复的特征值λ,即λ是特征值方程det(A-λI) = 0的多重根。我们需要找到与特征值λ相关的特征向量。 首

    2024年02月05日
    浏览(48)
  • 【问题证明】矩阵方程化为特征值方程求得的特征值为什么是全部特征值?不会丢解吗?

    这个问题困扰了我好久,一直感觉如果有其他的特征值没法证伪,不过一直存在思想的层面,没有实际解决,今天突然想到动笔来解决,遂得解,证明如下。 这个证明看似证明过后很直观,但实际上思维走向了牛角尖的时候光靠思考是无法得出令人信服的结论的,唯有实际动

    2024年02月05日
    浏览(58)
  • 线性代数高级--二次型--特征值与特征向量--特征值分解--多元函数的泰勒展开

    目录 二次型 概念 示例   性质和特点 特征值与特征向量 概念 示例  注意  性质和特点  特征值分解 注意 多元函数的泰勒展开  回顾一元函数泰勒展开  多元函数的泰勒展开 概念 二次型是一个关于向量的二次多项式,通常用矩阵表示。 考虑一个n维向量x = [x₁, x₂, ...,

    2024年02月11日
    浏览(55)
  • 12、特征值与特征向量

    目录 一、特征值和特征向量的定义 二、特征值和特征向量的相关函数 三、特征值和特征向量的计算 假设A是一个n×n的矩阵,A的特征值问题就是找到下面方程组的解: 其中,λ为标量,V为矢量,若把矩阵A的n个特征值放在矩阵P的对角线上,相应的特征向量按照与特征值对应

    2024年02月07日
    浏览(46)
  • 线性代数|证明:矩阵特征值的倒数是其逆矩阵的特征值

    性质 1 若 λ lambda λ 是 A boldsymbol{A} A 的特征值,当 A boldsymbol{A} A 可逆时, 1 λ frac{1}{lambda} λ 1 ​ 是 A − 1 boldsymbol{A}^{-1} A − 1 的特征值。 证明 因为 λ lambda λ 是 A boldsymbol{A} A 的特征值,所以有 p ≠ 0 boldsymbol{p} ne 0 p  = 0 使 A p = λ p boldsymbol{A} boldsymbol{p} = lambda

    2024年02月08日
    浏览(49)
  • 线性代数——特征值和特征向量

    学习高等数学和线性代数需要的初等数学知识 线性代数——行列式 线性代数——矩阵 线性代数——向量 线性代数——线性方程组 线性代数——特征值和特征向量 线性代数——二次型 本文大部分内容皆来自李永乐老师考研教材和视频课。 设 A = [ a i j ] A=[a_{ij}] A = [ a ij ​

    2024年02月15日
    浏览(45)
  • 线性代数 --- 特征值与特征向量

    Part I:特征值,特征向量的意义与性质         已知任意向量x,现有矩阵A对x进行操作后,得到新的向量Ax。这就好比是自变量x与函数f(x)的关系一样,向量x通过类似“函数”的处理得到了一个新的向量Ax。这个新的向量可能和原向量x方向相同,也可能不同(事实上大多都不同

    2024年03月10日
    浏览(50)
  • 特征值和特征向量的通俗解释

    我们知道,特征向量的公式是                 ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​        ​​​​​​​         其中A代表矩阵,x代表特征向量,代表特征值。 众所

    2024年02月15日
    浏览(33)
  • 《数值分析》-3-特征值与特征矩阵

    搜索技术的很多方面的知识发现都依赖于特征值或奇异值问题,涉及到特征值计算问题。 计算特征值没有直接的方法。 定位特征值的计算方法基于幂迭代的思想,这是求解特征值的一类迭代方法。该思想的一个复杂版本被称为QR算法,是确定典型矩阵所有特征值的一般方法。

    2024年02月08日
    浏览(48)
  • 线性代数基础 | 特征值和特征向量

    一、特征值和特征向量的定义 A. 特征值的定义和性质 特征值(eigenvalue)是线性代数中一个重要的概念,用于描述线性变换对于某个向量的伸缩效应。在本文中,我们将深入讨论特征值的定义和性质。 首先,我们考虑一个线性变换(或者说一个方阵)A。对于一个非零向量v,

    2024年02月16日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包