矩阵分析:特征值分解

这篇具有很好参考价值的文章主要介绍了矩阵分析:特征值分解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前置知识

空间变换

伸缩

矩阵分析:特征值分解

一个矩阵其实就是一个线性变换,因为一个矩阵乘以一个向量后得到的向量,其实就相当于将这个向量进行了线性变换。比如说下面的一个矩阵:
矩阵分析:特征值分解
因为这个矩阵M乘以一个向量(x,y)的结果是:
矩阵分析:特征值分解

旋转

矩阵分析:特征值分解

除了伸缩变换,也可以进行旋转变换。

上面的矩阵是对称的,所以这个变换是一个对x,y轴的方向一个拉伸变换(每一个对角线上的元素将会对一个维度进行拉伸变换,当值>1时,是拉长,当值<1时时缩短),当矩阵不是对称的时候,假如说矩阵是下面的样子:
矩阵分析:特征值分解

对称矩阵

对称矩阵(Symmetric Matrix)是指元素以主对角线为对称轴对应相等的矩阵,例如:

矩阵分析:特征值分解

他的转置等于它本身

对称矩阵对角化

如果一个对称矩阵是实对称矩阵,就会存在正交矩阵P,与对角矩阵满足下列等式:
矩阵分析:特征值分解
然后我们对等式两边左乘P,右乘P的逆矩阵,就会得到:
矩阵分析:特征值分解
又因为正交矩阵的转置=它的逆矩阵,所以对称矩阵的对角化如下:
矩阵分析:特征值分解

正交矩阵

矩阵分析:特征值分解

  1. 正交矩阵的每一个行向量与其他行向量相互垂直(内积=0),每一个列向量与其他列向量相互垂直。
  2. 行向量或者列向量他与本身的内积=1,也就是长度=1(单位向量)。
  3. 正交矩阵的逆矩阵=它的转置矩阵

向量的基

假设有一个列向量A:=[3,2],如下图:

矩阵分析:特征值分解

我们假设图中每个蓝色方格的单位为1,那么即使图中没有标注黄色向量是谁,我们也可以脱口而出他就是[3,2]。那么为什么我们可以直接看出他是谁呢?
答案也很简单,因为我们根据有一个参考依据,那就是坐标系(笛卡尔坐标系)。然而,这个二维坐标系他其实是由两个基向量:i ,j所组成的空间,其中:
i = [ 1 , 0 ] T , j = [ 0 , 1 ] T i=[1,0]^T ,j=[0,1]^T i=[1,0]T,j=[0,1]T
我们可以把A看成在i向量扩大三倍,j扩大2倍,然后让他们作向量加法:

A → = 3 ⋅ i → + 2 j → = 3 [ 1 0 ] + 2 [ 0 1 ] = [ 1 0 0 1 ] [ 3 2 ] = [ 3 2 ] \begin{aligned}\overrightarrow{A}=3\cdot \overrightarrow{i}+2\overrightarrow{j}=3\begin{bmatrix} 1 \\ 0 \end{bmatrix}+2\begin{bmatrix} 0 \\ 1 \end{bmatrix}\\ =\begin{bmatrix} 1 & 0 \\ 0 & 1 \end{bmatrix}\begin{bmatrix} 3 \\ 2 \end{bmatrix}\\ =\begin{bmatrix} 3 \\ 2 \end{bmatrix}\end{aligned} A =3i +2j =3[10]+2[01]=[1001][32]=[32]

矩阵分析:特征值分解

基变换

假设有两个人,小泽,小乐,他们看待问题的‘角度’不认同,也、也就是基不同,其中小泽的基向量为:

矩阵分析:特征值分解
而小乐的基向量为为:b1 ,b2,b1b2这两个向量在小乐看来数值就是

矩阵分析:特征值分解

然而在小泽看来b1,b2数值为:
矩阵分析:特征值分解

上面的向量A,在小泽的角度来看,就是[3,2],然而在小乐的角度看就变成了:[5/3,1/3]。

矩阵分析:特征值分解

它们之所以认为这个向量是不同的,因为它们看待问题的角度不同,‘横看成岭侧成峰,远近高低各不同’,也就是基向量不同。

不同基下的向量变换

假设小泽角度下的向量B:
矩阵分析:特征值分解

现在我们知道小泽与小乐的基向量,还知道了向量B在小泽中的数值表示,那么我们如果把小泽角度看的向量B,用小乐的角度表示,计算公式应该为:
矩阵分析:特征值分解
于是,我们就把小泽角度下的向量B,转换成了小乐角度的向量。

逆矩阵

矩阵分析:特征值分解
A的逆矩阵代表的含义就是A变换的逆过程。
求解 Ax =b的几何意义,就是找到一个向量x使得在A的变换下,x被映射为b。如果A为满秩矩阵,则有唯一解 x = A − 1 b x=A^{-1}b x=A1b ,也就是对b施加逆变换即可找到x。

在上面我们说在小泽的眼中,小乐的基向量b1,b2就是:
矩阵分析:特征值分解
那么在小乐的眼中(以b1,b2为基向量),小泽的基向量i,j 如何表示呢?
这时候就用到了逆矩阵,把小泽的视角下的小乐的基向量的表示切换到小乐的视角小泽基向量的表示,需要用到上图矩阵做变换,那么我们反过来,就得到:
矩阵分析:特征值分解

不同基下的空间变换

在上面我们已经介绍了什么是不同基下如何转换向量,下面我们介绍我们在不同基下的空间变换。
在小泽的视角中,我们如果想把坐标系逆时针旋转90度,如下图:
矩阵分析:特征值分解
这个变换在小泽的视角下用矩阵A表示则是:
矩阵分析:特征值分解
那么我们想做的就是知道:在小乐的视角下这个变换矩阵怎么表示呢?
现在我们已经有的是:二者的基向量,小泽的旋转矩阵。
我们的流程是:

  1. 在小乐的视角下找到一组向量
  2. 把这组向量用小泽的视角表示
  3. 然后把这向量通过旋转矩阵得到旋转后的向量
  4. 把旋转后的向量通过逆矩阵返回到小乐的视角

其中P为小乐视角下小泽基向量的表示,A为旋转矩阵,P的逆矩阵是小泽视角下小乐基向量的表示。
矩阵分析:特征值分解
其中M就是我们要的小乐视角下的旋转矩阵,这就表示了不同基向量下的相同变换的相互转化。
矩阵分析:特征值分解

内积的几何意义

向量与基向量的内积,就是向量在基向量方向上的投影坐标。

点乘(Dot Product)的结果是点积,又称数量积或标量积(Scalar Product)。在空间中有两个向量:
矩阵分析:特征值分解
从代数角度看,点积是对两个向量对应位置上的值相乘再相加的操作,其结果即为点积。
矩阵分析:特征值分解
从几何角度看,点积是两个向量的长度与它们夹角余弦的积。

矩阵分析:特征值分解

特征值、特征向量

矩阵分析:特征值分解

向量x1,x2在矩阵A的作用下进行了空间变换,x1–>Ax1 , x2–> Ax2
其中Ax2与x2的方向一直,说明矩阵A只对x2起到了伸缩作用,我们把Ax2写成大小方向的表达式, λ x 2 \lambda x_2 λx2

矩阵分析:特征值分解

于是我们就是:lambda 为变换矩阵A的特征值,x2为变换矩阵A lambda这个特征值对应的特征向量。

特征值分解

特征值分解可以得到特征值与特征向量,特征值表示的是这个特征到底有多重要,而特征向量表示这个特征的方向。
如果说一个向量v是一个方阵A的特征向量,将一可以表示成下面形式
A v = λ v Av=\lambda v Av=λv
λ \lambda λ为特征向量v的特征值,特征值分解是将一个矩阵分解为如下形式:
A = Q ∑ Q − 1 A=Q\sum Q^{-1} A=QQ1
其中Q是这个矩阵A的特征向量所组成的矩阵, ∑ \sum 是一个对角矩阵,每一个对角线元素就是一个特征值,里面的特征值有大到小排列,这些特征值所对应的特征向量就是描述这个矩阵变化方向,(从主要的变化到次要的变化排序)。也就是说矩阵A的信息可以由其特征值和特征向量表示。

对于矩阵为高纬的情况下,那么这个矩阵就是高维空间下的一个线性变换,可以想像,这个变化也同样有很多的变换方向,我们通过特征值分解得到的前N个特征向量,那就对应了这个矩阵最主要的N个变化方向,我们利用这前N个变化方向,就可以近似这个矩阵(变换)。文章来源地址https://www.toymoban.com/news/detail-423434.html

代码

import numpy as np
A = np.array([[1, 2, 3], [4, 5, 6], [7, 8, 9]])
V, U = np.linalg.eig(A)
print(V)
print(U)
# 特征值分解的应用
1. PCA
2. SVD
3. 图像压缩
4. 控制系统

到了这里,关于矩阵分析:特征值分解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《数值分析》-3-特征值与特征矩阵

    搜索技术的很多方面的知识发现都依赖于特征值或奇异值问题,涉及到特征值计算问题。 计算特征值没有直接的方法。 定位特征值的计算方法基于幂迭代的思想,这是求解特征值的一类迭代方法。该思想的一个复杂版本被称为QR算法,是确定典型矩阵所有特征值的一般方法。

    2024年02月08日
    浏览(48)
  • 谈主成分分析/因子分析中的特征值“矩阵近似”

    主成分分析和因子分析是数据降维的常用手段,其中以特征值为载体,在不断降维“近似”原本的协方差矩阵。 CSDN中一些文章在介绍这个问题或者叫“特征值分解”时,讲得都比较学术化,今天用一个小例子,还是面向新人,来引导理解“特征值分解”和“矩阵近似”(图

    2024年02月05日
    浏览(46)
  • 线性代数高级--二次型--特征值与特征向量--特征值分解--多元函数的泰勒展开

    目录 二次型 概念 示例   性质和特点 特征值与特征向量 概念 示例  注意  性质和特点  特征值分解 注意 多元函数的泰勒展开  回顾一元函数泰勒展开  多元函数的泰勒展开 概念 二次型是一个关于向量的二次多项式,通常用矩阵表示。 考虑一个n维向量x = [x₁, x₂, ...,

    2024年02月11日
    浏览(55)
  • 【数值分析】用幂法计算矩阵的主特征值和对应的特征向量(附matlab代码)

    用幂法计算下列矩阵的按模最大特征值及对应的特征向量 k= 1 V^T= 8 6 0 m= 8 u^T= 1.0000 0.7500 0 k= 2 V^T= 9.2500 6.0000 -2.7500 m= 9.2500 u^T= 1.0000 0.6486 -0.2973 k= 3 V^T= 9.5405 5.8919 -3.5405 m= 9.5405 u^T= 1.0000 0.6176 -0.3711 k= 4 V^T= 9.5949 5.8414 -3.7309 m= 9.5949 u^T= 1.0000 0.6088 -0.3888 k= 5 V^T= 9.6041 5.8240 -3.7753 m=

    2024年02月01日
    浏览(44)
  • 特征值和特征向量的解析解法--带有重复特征值的矩阵

    当一个矩阵具有重复的特征值时,意味着存在多个线性无关的特征向量对应于相同的特征值。这种情况下,我们称矩阵具有重复特征值。 考虑一个n×n的矩阵A,假设它有一个重复的特征值λ,即λ是特征值方程det(A-λI) = 0的多重根。我们需要找到与特征值λ相关的特征向量。 首

    2024年02月05日
    浏览(48)
  • 线性代数|证明:矩阵特征值的倒数是其逆矩阵的特征值

    性质 1 若 λ lambda λ 是 A boldsymbol{A} A 的特征值,当 A boldsymbol{A} A 可逆时, 1 λ frac{1}{lambda} λ 1 ​ 是 A − 1 boldsymbol{A}^{-1} A − 1 的特征值。 证明 因为 λ lambda λ 是 A boldsymbol{A} A 的特征值,所以有 p ≠ 0 boldsymbol{p} ne 0 p  = 0 使 A p = λ p boldsymbol{A} boldsymbol{p} = lambda

    2024年02月08日
    浏览(49)
  • 【问题证明】矩阵方程化为特征值方程求得的特征值为什么是全部特征值?不会丢解吗?

    这个问题困扰了我好久,一直感觉如果有其他的特征值没法证伪,不过一直存在思想的层面,没有实际解决,今天突然想到动笔来解决,遂得解,证明如下。 这个证明看似证明过后很直观,但实际上思维走向了牛角尖的时候光靠思考是无法得出令人信服的结论的,唯有实际动

    2024年02月05日
    浏览(58)
  • MATLAB矩阵的特征值与特征向量

    设A是n阶方阵,如果存在常数λ和n维非零列向量x,使得等式Ax = λx 成立,则称λ为A的特征值,x是对应特征值λ的特征向量。 在MATLAB中,计算矩阵的特征值与特征向量的函数是eig,常用的调用格式有两种: E = eig(A):求矩阵A的全部特征向量值,构成向量E。 [X,D] = eig(A):

    2024年02月11日
    浏览(41)
  • 5.1 矩阵的特征值和特征向量

    学习特征值和特征向量的定义和性质,我会采取以下方法: 1. 学习线性代数基础知识:特征值和特征向量是线性代数中的重要概念,需要先掌握线性代数的基础知识,例如向量、矩阵、行列式、逆矩阵、转置、内积、外积等基本概念。 2. 学习特征值和特征向量的定义:特征

    2024年02月02日
    浏览(54)
  • 特征值与相似矩阵

    应用:求幂,对角化,二次型,动力系统等等 通俗 ​ 向量α在矩阵A的线性变换作用下,保持方向不变,进行比例为λ的伸缩。 官方(注意是方阵) 特征方程 ​ (λE-A)α = 0 (α!=0)特征向量不能为0,但是 特征值可以为0或虚数 。方程中λ的次数应与A的 阶数相同 ,否则不是

    2024年02月06日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包