信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础

这篇具有很好参考价值的文章主要介绍了信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

0. 小小说明

  由于一些前后概念是嵌套在一起,密切相关的,但是它们的认知深度的层次又有先后差异,所以为循序渐进,这里在讲解时会存在部分的后面的概念往前提以帮助当前概念的理解以确保大家每一步都能看得懂,并为后续概念作铺垫,文中所有存在这种概念嵌套的情况都有说明,只要大家认真看的话,绝对保证大家看得清楚明白。

1. 基本概念

1.1 矢量的图形化引入

  大家应该都知道矢量是可以分解的,而大家知不知道矢量分解的真实含义和思想出发点呢?首先我们从图形化的矢量入手。我们知道,一维矢量就是可以表示为某一点 A A A到过该点的某一条直线上的任意点 B B B的一条有向线段,图形化可以表示为一个有向线段 a {\bf{a}} a
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理
图1 有向线段 a \text{图1 有向线段\bf{a}} 有向线段a

  不难知道,对于直线 A B AB AB上任意一条向量 α {\boldsymbol{\alpha}} α,都可以通过对向量 a \bf{a} a与一个数 λ \lambda λ,即向量 a \bf{a} a的数乘相乘得到,即 α = λ a {\boldsymbol{\alpha}}=\lambda\bf{a} α=λa。但是,当在直线外出现一点 C C C,那么如果对于有向线段 b = A C → \bf{b}=\overrightarrow {AC} b=AC ,就发现力不从心了
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理
图2 有向线段 a 表示有向线段 b \text{图2 有向线段{\bf{a}}表示有向线段{\bf{b}}} 有向线段a表示有向线段b

可以发现,无论给向量 a \bf{a} a进行任何数乘,都无法完全表示向量 b \bf{b} b。那么怎么办呢?虽然大家都知道应该如何解决这个问题(就是找到另一条与 a \bf{a} a不在同一直线上的向量对吧),但是先别急,因为这是为了更深层次理解向量空间与信号分解的原理,需要引入更深层次的内容,但是绝对讲得浅显易懂。为定量描述用向量 a \bf{a} a表示 b \bf{b} b的误差,这里引入一个误差向量 ε \boldsymbol{\varepsilon} ε
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理
图3 表示误差 \text{图3 表示误差} 表示误差

即令
b = λ a + ε \begin{equation} {\bf{b}}=\lambda{\bf{a}}+\boldsymbol{\varepsilon} \end{equation} b=λa+ε
  那么如果要使得向量 a {\bf{a}} a表示 b {\bf{b}} b的误差最小,就要求 ∣ ε ∣ \left| {\boldsymbol{\varepsilon }} \right| ε最小,也即 ∣ ε ∣ 2 = ε 2 \left| {\boldsymbol{\varepsilon }} \right|^2=\boldsymbol{\varepsilon }^2 ε2=ε2最小。因此,我们得到了一个问题:找到一个 λ \lambda λ,使得 ε 2 \boldsymbol{\varepsilon }^2 ε2最小,用数学语言可以表述该问题为
min ⁡ λ ε 2 = min ⁡ λ ( b − λ a ) 2 \begin{equation} \mathop {\min }\limits_\lambda\boldsymbol{\varepsilon }^2=\mathop {\min }\limits_\lambda\left({\bf{b}}-\lambda{\bf{a}}\right)^2 \end{equation} λminε2=λmin(bλa)2
  对于该问题,我们有两种求解思路:
方法1: 直接从图中分析,在给定了标准向量 a \bf{a} a所在的直线和向量 b \bf{b} b的大小和方向的情况下,要令误差 ∣ ε ∣ \left| {\boldsymbol{\varepsilon }} \right| ε最小,那么也就是当 ε ⊥ a {\boldsymbol{\varepsilon }} \bot {\bf{a}} εa时,才有 ∣ ε ∣ \left| {\boldsymbol{\varepsilon }} \right| ε最小,图示如下
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理
图4 表示误差最小情况 \text{图4 表示误差最小情况} 表示误差最小情况

那么根据直角三角形的三边关系,有
∣ λ a ∣ = λ ∣ a ∣ = ∣ b ∣ cos ⁡ θ ↓ λ = ∣ b ∣ cos ⁡ θ ∣ a ∣ = ∣ a ∣ ∣ b ∣ cos ⁡ θ ∣ a ∣ 2 = a ⋅ b a ⋅ a \begin{array}{c} \left| {\lambda {\bf{a}}} \right| = \lambda \left| {\bf{a}} \right| = \left| {\bf{b}} \right|\cos \theta \\ \downarrow \\ {\lambda = \frac{{\left| {\bf{b}} \right|\cos \theta }}{{\left| {\bf{a}} \right|}} = \frac{{\left| {\bf{a}} \right|\left| {\bf{b}} \right|\cos \theta }}{{{{\left| {\bf{a}} \right|}^2}}} = \frac{{{\bf{a}} \cdot {\bf{b}}}}{{{\bf{a}} \cdot {\bf{a}}}}} \end{array} λa=λa=bcosθλ=abcosθ=a2abcosθ=aaab
方法2: 从数学严格推导的角度考虑,对于上述的式(2)中问题的表达式,不难发现该问题是一个关于 λ \lambda λ的一元二次函数,并且平方项前的系数为正,那就表明该函数的最小值就是出现在使得倒数等于 0 0 0的那一个极值点处,那么就将该式对 λ \lambda λ求导,就可以得到
d d λ ( b − λ a ) 2 = − 2 a ( b − λ a ) = − 2 a ε = 0 \begin{equation} \frac{d}{{d\lambda }}{\left( {{\bf{b}} - \lambda {\bf{a}}} \right)^2} = - 2{\bf{a}}\left( {{\bf{b}} - \lambda {\bf{a}}} \right) =- 2{\bf{a}}{\boldsymbol{\varepsilon }}= 0 \end{equation} dλd(bλa)2=2a(bλa)=2aε=0
要令上面的等式成立,对于含有向量内积运算的左式,其结果又三种可能性:

  1. a = 0 {\bf{a}}={\bf{0}} a=0,但显然标准向量不可能为零向量,不成立;
  2. b − λ a = ε = 0 {{\bf{b}} - \lambda {\bf{a}}}={\boldsymbol{\varepsilon }}={\bf{0}} bλa=ε=0,则此时只有 b \bf{b} b a \bf{a} a时才成立,对于这里讨论的不在同一直线上的情况,这种情况也不成立;
  3. a ⊥ ε {\bf{a}}\bot{\boldsymbol{\varepsilon }} aε,因而这种情况与方法1所得到的关系一致,只有这种情况成立。

基于 ∣ a ∣ ≠ 0 \left|{\bf{a}}\right|\ne 0 a=0的前提,按照一元一次方程的求解方法可以非常直接地求解出式(3)中的 λ \lambda λ,可以得到
λ = a ⋅ b a ⋅ a \begin{equation} {\lambda = \frac{{{\bf{a}} \cdot {\bf{b}}}}{{{\bf{a}} \cdot {\bf{a}}}}} \end{equation} λ=aaab
可以看到该求解结果与方法1中的结果一致,同时注意这个结果是在上述可能性3成立可能性1不可能成立的情况下才能得到的。

1.2 最佳系数(相似系数)

  从而对于式(3)和式(4)引入一个概念:对于两个已知方向和大小的向量 U 1 {\bf{U}}_1 U1 A \bf{A} A,定义了一个该表示中的最佳系数 λ \lambda λ(有些地方也称为两向量的相似系数
λ = A ⋅ U 1 U 1 ⋅ U 1 \begin{equation} {\lambda = \frac{{{\bf{A}} \cdot {{\bf{U}}_1}}}{{{{\bf{U}}_1} \cdot {{\bf{U}}_1}}}} \end{equation} λ=U1U1AU1
(另外,可能有些认真的盆友们还会发现为什么这里只是对两个向量进行比较,为什么向量 U 1 {\bf{U}}_1 U1还要加一个下标1呢,这是为了兼容后续引入多个已知的向量基底 U 1 , U 2 , ⋯   , U m {\bf{U}}_1,{\bf{U}}_2,\cdots,{\bf{U}}_m U1,U2,,Um来表示一个一般向量 A \bf{A} A时的表述方法,具体会到后面再阐述,这里只是先给大家做一个铺垫)
  特别地, λ = 0 \lambda=0 λ=0时,就称两个向量是正交的,即 A ⊥ U 1 {\bf{A}}\bot{\bf{U}}_1 AU1,相信这不难理解,同时这也是为之后对信号分解时的基底选择需要满足正交性的一个铺垫。(另外做一个对正交性的初步理解,就是向量与自身的内积非零,与同组其它向量的内积为零,先有印象,之后细说)

1.3 向量的维数

  向量的维数其实很简单,相信大家也都知道,这里就是简单提一下:向量的维数其实就可以理解为坐标轴的维数的拓展,即一维坐标轴上的一个坐标可以用一个数值(即标量) x x x来表示,这个数值同时表达了从原点到该点有向线段的长度大小和方向,该有向线段就对应了一个一维向量(一维向量就是一个数,即一个标量);同理,平面坐标系下的二维坐标则也表达了原点到该点的向量,即二维向量,立体空间坐标系下的坐标也就表达了一个三维向量。之所以说向量的维数是坐标系维数的拓展,就是因为当维数 n > 3 n>3 n>3时,无法再用坐标轴表示,但可以用类似的思想理解 n > 3 n>3 n>3时的高维向量。

1.4 向量基的图形化初步理解

1.4.1 一维向量基

  如图1所示,当标准向量为 a \bf{a} a,而当需要被表示的向量 b \bf{b} b a \bf{a} a共线(在直线 A B AB AB上),则该向量可以被向量 a \bf{a} a完全地无误差地表示( ε = 0 \boldsymbol{\varepsilon}={\bf{0}} ε=0
b = λ a \begin{equation} \bf{b}=\lambda\bf{a} \end{equation} b=λa
从而对于一条直线上的任意向量,可以使用该直线上的一个给定的非零向量 a \bf{a} a唯一地完全无误差的表示,因而向量 a \bf{a} a就是这条直线上的一个(组)1维向量基。这是满足了向量表示的

  1. 唯一性: 这里根据1.3节中的一维向量描述,如果只考虑一条直线(数轴)上的向量,那么只需要知道将该向量的起始点平移到原点时其终点对应的值即可,即一个值即可确定。从而对于任意确定的向量 b \bf{b} b,只需要用一个(相当于已知的)标量 x b x_b xb即可确定,同样对于标准向量 a \bf{a} a可以使用一个(已知的)标量 x a x_a xa即可确定,从而要求式(6)中的 λ \lambda λ(待求自变量),只需要求一元一次方程 x b = x a λ x_b=x_a\lambda xb=xaλ就可以了。显然,解是唯一的;
  2. 完备性: 完备性是指一组向量基必须满足的,即该组向量基必须能够完全无误差地描述对应维度的向量空间。另外,向量空间在本文第2节会进一步解释,且只需要大致理解概念即可,不用深究中的任意向量。
      首先我们知道非零向量 a \bf{a} a与自身的内积一定非零,那么这里我们还可以这样理解:该向量组中只有 a \bf{a} a一个向量,所以就认为 a \bf{a} a与组中其它向量的内积就是 0 0 0

1.4.2 二维向量基

  进一步地,如上面图3所示,当只使用一个标准矢量 a {\bf{a}} a,无法在无误差的情况下描述一个与其不在同一直线上的向量 b {\bf{b}} b。将图3中的标准向量 a {\bf{a}} a写为 U 1 {\bf{U}}_1 U1,向量 b {\bf{b}} b写为 A {\bf{A}} A(按照1.2节中的表述方法),并再取一个已知标准向量 U 2 {\bf{U}}_2 U2 U 1 {\bf{U}}_1 U1共同表示向量 A {\bf{A}} A,数学表达为
A = λ 1 U 1 + λ 2 U 2 + ε {\bf{A}}=\lambda_1{\bf{U}}_1+\lambda_2{\bf{U}}_2+\boldsymbol{\varepsilon} A=λ1U1+λ2U2+ε

U 2 {\bf{U}}_2 U2 U 1 {\bf{U}}_1 U1不共线并且 A \bf{A} A U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2确定的平面上时(相交两直线确定一平面),可以根据平行四边形法则,有
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理
图5 不共线的 U 1 和 U 2 表示与之共面的向量 A \text{图5 不共线的}{\bf{U}}_1\text{和}{\bf{U}}_2\text{表示与之共面的向量\bf{A}} 不共线的U1U2表示与之共面的向量A

ε = 0 \boldsymbol{\varepsilon}=\bf{0} ε=0
A = λ 1 U 1 + λ 2 U 2 {\bf{A}}=\lambda_1{\bf{U}}_1+\lambda_2{\bf{U}}_2 A=λ1U1+λ2U2

表明不共线的两个向量 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2可以完全无误差地表达向量 A \bf{A} A。前面对向量 A \bf{A} A的限制只有在 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2所确定的平面上,所以不难理解两个不共线的向量可以表示这两个向量所在平面内的所有向量(严格证明可以通过建立直角坐标系,通过坐标运算证明,这里就不做多余推导了)。同时,根据1.1节的内容同理,当 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2不共线时, U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2之间无法无误差地互相单独表示出对方,这是从矢量图形的角度理解的线性无关的向量,即不共线的两个向量 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2线性无关的。对于两个互为线性无关的向量,就是互相不能表示对方的两个向量(关于线性无关,后面会再次提到,这里先仅基于两个向量建立一个概念)。
  综上,给出**平面直角坐标系(2维向量空间)**下的一组概念:使用2个线性无关的向量可以无误差地表示出这2个向量所确定平面上的任意向量,并将这两个向量称为2维向量空间中的一组基底(也简称作基)
  同样,要求得待定参数 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2,我们也可以根据类似1.3节中的二维向量的平面坐标系下的描述以及1.4.1节中的带入方法,令任意确定的平面向量 A = [ x A , y A ] T {\bf{A}}=\left[x_A,y_A\right]^T A=[xA,yA]T,以及平面内不在同一直线上的两个已知向量 U 1 = [ x 1 , y 1 ] T , U 2 = [ x 2 , y 2 ] T {\bf{U}}_1=\left[x_1,y_1\right]^T,{\bf{U}}_2=\left[x_2,y_2\right]^T U1=[x1,y1]T,U2=[x2,y2]T(这些都是已知参数),求解 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2
[ x A y A ] = [ x 1 x 2 y 1 y 2 ] [ λ 1 λ 2 ] \left[ {\begin{matrix} {{x_A}}\\ {{y_A}} \end{matrix}} \right]= \left[ {\begin{matrix} {{x_1}}&{{x_2}}\\ {{y_1}}&{{y_2}} \end{matrix}} \right]\left[ {\begin{matrix} {{\lambda _1}}\\ {{\lambda _2}} \end{matrix}} \right] [xAyA]=[x1y1x2y2][λ1λ2]

直接可以看到的是该矩阵方程的系数矩阵 [ x 1 x 2 y 1 y 2 ] \left[ {\begin{matrix} {{x_1}}&{{x_2}}\\ {{y_1}}&{{y_2}} \end{matrix}} \right] [x1y1x2y2]中由两个线性无关的二维向量组成,所以秩 r ( [ x 1 x 2 y 1 y 2 ] ) = n = 2 r\left(\left[ {\begin{matrix} {{x_1}}&{{x_2}}\\ {{y_1}}&{{y_2}} \end{matrix}} \right]\right)=n=2 r([x1y1x2y2])=n=2,其增广矩阵 [ x 1 x 2 x A y 1 y 2 y A ] \left[ {\begin{matrix} {{x_1}}&{{x_2}}&{{x_A}}\\ {{y_1}}&{{y_2}}&{{y_A}} \end{matrix}} \right] [x1y1x2y2xAyA] 2 × 3 2\times 3 2×3矩阵,且根据秩的性质,该增广矩阵的秩必定不小于其子矩阵的秩,即不小于2,所以该增广矩阵的秩 r ( [ x 1 x 2 x A y 1 y 2 y A ] ) = 2 = r ( [ x 1 x 2 y 1 y 2 ] ) r\left(\left[ {\begin{matrix} {{x_1}}&{{x_2}}&{{x_A}}\\ {{y_1}}&{{y_2}}&{{y_A}} \end{matrix}} \right]\right)=2=r\left(\left[ {\begin{matrix} {{x_1}}&{{x_2}}\\ {{y_1}}&{{y_2}} \end{matrix}} \right]\right) r([x1y1x2y2xAyA])=2=r([x1y1x2y2]),所以该矩阵方程有唯一解,即满足1.4.1节中描述的向量基的唯一性。(当然,如果觉得这种判断太过复杂,那么也可以用大家最喜欢的判断方法:二元一次方程组,两个方程两个未知数,且两个方程线性无关,有唯一解)
  再者,假设向量 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2为正交的,则 U 1 U 2 = 0 {\bf{U}}_1{\bf{U}}_2=0 U1U2=0(对后面求偏导的计算意义重大),图示如下
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理
图6 正交的 U 1 和 U 2 表示与之共面的向量 A \text{图6 正交的}{\bf{U}}_1\text{和}{\bf{U}}_2\text{表示与之共面的向量\bf{A}} 正交的U1U2表示与之共面的向量A

同时由于证明上面证明了表示的唯一性,即表明只有一组 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2的取值使得误差绝对值取到最小值 0 0 0,也是极小值点,所以这里采用类似1.1节中的办法,对函数 ε 2 = ( λ 1 U 1 + λ 2 U 2 − A ) 2 \boldsymbol{\varepsilon}^2=\left(\lambda_1{\bf{U}}_1+\lambda_2{\bf{U}}_2-{\bf{A}}\right)^2 ε2=(λ1U1+λ2U2A)2,分别对 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2求偏导
{ ∂ ∂ λ 1 ( λ 1 U 1 + λ 2 U 2 − A ) 2 = 2 ( λ 1 U 1 2 − U 1 A ) = 0 ∂ ∂ λ 2 ( λ 1 U 1 + λ 2 U 2 − A ) 2 = 2 ( λ 2 U 2 2 − U 2 A ) = 0 \left\{ \begin{array}{l} \frac{\partial }{{\partial {\lambda _1}}}{\left( {{\lambda _1}{{\bf{U}}_1} + {\lambda _2}{{\bf{U}}_2} - {\bf{A}}} \right)^2} = 2\left( {{\lambda _1}{\bf{U}}_1^2 - {{\bf{U}}_1}{\bf{A}}} \right) = 0\\ \frac{\partial }{{\partial {\lambda _2}}}{\left( {{\lambda _1}{{\bf{U}}_1} + {\lambda _2}{{\bf{U}}_2} - {\bf{A}}} \right)^2} = 2\left( {{\lambda _2}{\bf{U}}_2^2 - {{\bf{U}}_2}{\bf{A}}} \right) = 0 \end{array} \right. {λ1(λ1U1+λ2U2A)2=2(λ1U12U1A)=0λ2(λ1U1+λ2U2A)2=2(λ2U22U2A)=0
从而有 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2的解
λ 1 = A ⋅ U 1 U 1 ⋅ U 1 , λ 2 = A ⋅ U 2 U 2 ⋅ U 2 \lambda_1={\frac{{{\bf{A}} \cdot {{\bf{U}}_1}}}{{{{\bf{U}}_1} \cdot {{\bf{U}}_1}}}},\lambda_2={\frac{{{\bf{A}} \cdot {{\bf{U}}_2}}}{{{{\bf{U}}_2} \cdot {{\bf{U}}_2}}}} λ1=U1U1AU1,λ2=U2U2AU2
关于上面为什么要假设正交,还要通过求导来求解,相信有很多人有疑问,觉得直接求解前面的矩阵方程不也一样吗,弄这么麻烦不是没事找事吗?关于这个问题,在后面的内容中会马上进一步描述,到时候大家就很清楚了,这里只是对正交性的进一步的铺垫,大家先建立这个求解过程的思路就好。

1.4.3 三维向量基

  结论:一个三维的空间向量 A \bf{A} A可以通过三个不在同一平面的向量 U 1 , U 2 , U 3 {\bf{U}}_1,{\bf{U}}_2,{\bf{U}}_3 U1,U2,U3唯一地完全无误差地表示( ε = 0 \boldsymbol{\varepsilon={\bf{0}}} ε=0
A = λ 1 U 1 + λ 2 U 2 + λ 3 U 3 \bf{A}=\lambda_1{\bf{U}}_1+\lambda_2{\bf{U}}_2+\lambda_3{\bf{U}}_3 A=λ1U1+λ2U2+λ3U3
U 1 , U 2 , U 3 {\bf{U}}_1,{\bf{U}}_2,{\bf{U}}_3 U1,U2,U3这一组向量线性无关(任何两个都无法完全表示出第三个),它们构成了一组3维向量基。当该组向量基中的向量互为正交向量时,对应的待定系数的解为
λ 1 = A ⋅ U 1 U 1 ⋅ U 1 , λ 2 = A ⋅ U 2 U 2 ⋅ U 2 , λ 3 = A ⋅ U 3 U 3 ⋅ U 3 \lambda_1={\frac{{{\bf{A}} \cdot {{\bf{U}}_1}}}{{{{\bf{U}}_1} \cdot {{\bf{U}}_1}}}},\lambda_2={\frac{{{\bf{A}} \cdot {{\bf{U}}_2}}}{{{{\bf{U}}_2} \cdot {{\bf{U}}_2}}}},\lambda_3={\frac{{{\bf{A}} \cdot {{\bf{U}}_3}}}{{{{\bf{U}}_3} \cdot {{\bf{U}}_3}}}} λ1=U1U1AU1,λ2=U2U2AU2,λ3=U3U3AU3

(如果完全理解了三维向量基这一结论的盆友可以跳过本1.3.3节后续的推导,下面的推导原则与前面1.1节的推导的思路基本一致,不需要看的可以直接跳到第2节) \text{\bf(如果完全理解了三维向量基这一结论的盆友可以跳过本1.3.3节后续的推导,下面的推导原则与前面1.1节的推导的思路基本一致,不需要看的可以直接跳到第2节)} (如果完全理解了三维向量基这一结论的盆友可以跳过本1.3.3节后续的推导,下面的推导原则与前面1.1节的推导的思路基本一致,不需要看的可以直接跳到第2节)

  进一步地,若对于一个不在由向量 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2所确定的平面上的向量 A \bf{A} A,并仍要使用 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2来表示
A = λ 1 U 1 + λ 2 U 2 + ε \bf{A}=\lambda_1{\bf{U}}_1+\lambda_2{\bf{U}}_2+\boldsymbol{\varepsilon} A=λ1U1+λ2U2+ε

图形化表示如下图
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理
图7 不共线的 U 1 和 U 2 表示不在该平面内的向量 A \text{图7 不共线的}{\bf{U}}_1\text{和}{\bf{U}}_2\text{表示不在该平面内的向量\bf{A}} 不共线的U1U2表示不在该平面内的向量A

不难看出不存在 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2使得在 ε ≠ 0 \boldsymbol{\varepsilon}\ne {\bf{0}} ε=0的情况下使上面等式成立。因此,考虑继续增加一个标准向量 U 3 {\bf{U}}_3 U3,通过3个标准向量来表示向量 A \bf{A} A
A = λ 1 U 1 + λ 2 U 2 + λ 3 U 3 + ε \bf{A}=\lambda_1{\bf{U}}_1+\lambda_2{\bf{U}}_2+\lambda_3{\bf{U}}_3+\boldsymbol{\varepsilon} A=λ1U1+λ2U2+λ3U3+ε

当3个标准向量不在同一平面上时,
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理

图8 不共面的 U 1 , U 2 和 U 3 表示空间向量 A \text{图8 不共面的}{\bf{U}}_1\text{,}{\bf{U}}_2\text{和}{\bf{U}}_3\text{表示空间向量\bf{A}} 不共面的U1U2U3表示空间向量A

关于这里表示的唯一性完备性,有两种理解方式:
方式1: 根据1.3节中的空间坐标与三维向量之间的对应关系的表述,为探究是否存在 λ 1 , λ 2 , λ 3 \lambda_1,\lambda_2,\lambda_3 λ1,λ2,λ3,使得在 ε = 0 \boldsymbol{\varepsilon}= {\bf{0}} ε=0,类似1.4.1节和1.4.2节中的坐标假设,令向量 A = [ x A , y A , z A ] T , U 1 = [ x 1 , y 1 , z 1 ] T , U 2 = [ x 2 , y 2 , z 2 ] T , U 3 = [ x 3 , y 3 , z 3 ] T {\bf{A}}=\left[x_A,y_A,z_A\right]^T,{\bf{U}}_1=\left[x_1,y_1,z_1\right]^T,{\bf{U}}_2=\left[x_2,y_2,z_2\right]^T,{\bf{U}}_3=\left[x_3,y_3,z_3\right]^T A=[xA,yA,zA]T,U1=[x1,y1,z1]T,U2=[x2,y2,z2]T,U3=[x3,y3,z3]T,可以列写方程
[ x A y A z A ] = [ x 1 x 2 x 3 y 1 y 2 y 3 z 1 z 2 z 3 ] [ λ 1 λ 2 λ 3 ] \left[ {\begin{matrix} {{x_A}}\\ {{y_A}}\\ {{z_A}} \end{matrix}} \right]= \left[ {\begin{matrix} {{x_1}}&{{x_2}}&{{x_3}}\\ {{y_1}}&{{y_2}}&{{y_3}}\\ {{z_1}}&{{z_2}}&{{z_3}} \end{matrix}} \right]\left[ {\begin{matrix} {{\lambda _1}}\\ {{\lambda _2}}\\ {{\lambda _3}} \end{matrix}} \right] xAyAzA = x1y1z1x2y2z2x3y3z3 λ1λ2λ3

同样的道理,由于 U 1 , U 2 , U 3 {\bf{U}}_1,{\bf{U}}_2,{\bf{U}}_3 U1,U2,U3中的任意一个向量均不在另外两个向量所确定的平面内,因而根据图6所示的结果,显然无法用其中的任意两个向量表示另一个向量,即3个向量为线性无关的,从而类似前述的矩阵的秩的判定方式可以得到该矩阵方程的系数矩阵的秩与增广矩阵的秩相等,且等于方程的个数(向量的维数) n = 3 n=3 n=3,因而上述方程有唯一解,即同时验证了唯一性完备性
方式2: 从图形化的层面理解,先分析不在同一直线上的 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2这两个向量,可以分析得出这两个向量的任意不同数乘之和的结果可以唯一表示其所确定平面上的任意不同的向量,即这两个向量直接的数乘之和可以直接看成(或可以直接替换为)该平面中的一个向量 U p = λ 1 ′ U 1 + λ 2 ′ U 2 {\bf{U}}_p=\lambda_1^{'}{\bf{U}}_1+\lambda_2^{'}{\bf{U}}_2 Up=λ1U1+λ2U2,那么当 U 3 {\bf{U}}_3 U3不在该平面上时, U p {\bf{U}}_p Up U 3 {\bf{U}}_3 U3可以确定新的平面,而由于 U p {\bf{U}}_p Up U 1 {\bf{U_1}} U1 U 2 {\bf{U}}_2 U2所确定的平面上的任意性,所以必然存在 U p {\bf{U}}_p Up使得 U p {\bf{U}}_p Up U 3 {\bf{U}}_3 U3确定的新平面包含向量 A \bf{A} A,那么再一次根据1.4.2节中的平面向量基的唯一性完备性,此时 U p {\bf{U}}_p Up U 3 {\bf{U}}_3 U3必然能唯一无误差地确定 A \bf{A} A
A = λ p U p + λ 3 U 3 = λ 1 ′ λ p U 1 + λ 2 ′ λ p U 2 + λ 3 U 3 \bf{A}=\lambda_p{\bf{U}}_p+\lambda_3{\bf{U}}_3=\lambda_1^{'}\lambda_p{\bf{U}}_1+\lambda_2^{'}\lambda_p{\bf{U}}_2+\lambda_3{\bf{U}}_3 A=λpUp+λ3U3=λ1λpU1+λ2λpU2+λ3U3

λ 1 = λ 1 ′ λ p , λ 2 = λ 2 ′ λ p \lambda_1=\lambda_1^{'}\lambda_p,\lambda_2=\lambda_2^{'}\lambda_p λ1=λ1λp,λ2=λ2λp
  再者,假设向量 U 1 {\bf{U}}_1 U1 U 2 {\bf{U}}_2 U2 U 3 {\bf{U}}_3 U3为正交的,则 U 1 U 2 = U 2 U 3 = U 1 U 3 = 0 {\bf{U}}_1{\bf{U}}_2={\bf{U}}_2{\bf{U}}_3={\bf{U}}_1{\bf{U}}_3=0 U1U2=U2U3=U1U3=0(对后面求偏导的计算意义重大),图示如下
信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础,线性代数,矩阵,信号处理
图9 正交的 U 1 , U 2 和 U 3 表示空间向量 A \text{图9 正交的}{\bf{U}}_1\text{,}{\bf{U}}_2\text{和}{\bf{U}}_3\text{表示空间向量\bf{A}} 正交的U1U2U3表示空间向量A

同时由于证明上面证明了表示的唯一性,即表明只有一组 λ 1 , λ 2 , λ 3 \lambda_1,\lambda_2,\lambda_3 λ1,λ2,λ3的取值使得误差绝对值取到最小值 0 0 0,也是极小值点,所以这里采用类似1.1节中的办法,对函数 ε 2 = ( λ 1 U 1 + λ 2 U 2 + λ 3 U 3 − A ) 2 \boldsymbol{\varepsilon}^2=\left(\lambda_1{\bf{U}}_1+\lambda_2{\bf{U}}_2+\lambda_3{\bf{U}}_3-{\bf{A}}\right)^2 ε2=(λ1U1+λ2U2+λ3U3A)2,分别对 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2求偏导
{ ∂ ∂ λ 1 ( λ 1 U 1 + λ 2 U 2 + λ 3 U 3 − A ) 2 = 2 ( λ 1 U 1 2 − U 1 A ) = 0 ∂ ∂ λ 2 ( λ 1 U 1 + λ 2 U 2 + λ 3 U 3 − A ) 2 = 2 ( λ 2 U 2 2 − U 2 A ) = 0 ∂ ∂ λ 3 ( λ 1 U 1 + λ 2 U 2 + λ 3 U 3 − A ) 2 = 2 ( λ 3 U 3 2 − U 3 A ) = 0 \left\{ \begin{array}{l} \frac{\partial }{{\partial {\lambda _1}}}{\left( {{\lambda _1}{{\bf{U}}_1} + {\lambda _2}{{\bf{U}}_2} + {\lambda _3}{{\bf{U}}_3}- {\bf{A}}} \right)^2} = 2\left( {{\lambda _1}{\bf{U}}_1^2 - {{\bf{U}}_1}{\bf{A}}} \right) = 0\\ \frac{\partial }{{\partial {\lambda _2}}}{\left( {{\lambda _1}{{\bf{U}}_1} + {\lambda _2}{{\bf{U}}_2} + {\lambda _3}{{\bf{U}}_3}- {\bf{A}}} \right)^2} = 2\left( {{\lambda _2}{\bf{U}}_2^2 - {{\bf{U}}_2}{\bf{A}}} \right) = 0\\ \frac{\partial }{{\partial {\lambda _3}}}{\left( {{\lambda _1}{{\bf{U}}_1} + {\lambda _2}{{\bf{U}}_2} + {\lambda _3}{{\bf{U}}_3}-{\bf{A}}} \right)^2} = 2\left( {{\lambda _3}{\bf{U}}_3^2 - {{\bf{U}}_3}{\bf{A}}} \right) = 0 \end{array} \right. λ1(λ1U1+λ2U2+λ3U3A)2=2(λ1U12U1A)=0λ2(λ1U1+λ2U2+λ3U3A)2=2(λ2U22U2A)=0λ3(λ1U1+λ2U2+λ3U3A)2=2(λ3U32U3A)=0
从而有 λ 1 \lambda_1 λ1 λ 2 \lambda_2 λ2的解
λ 1 = A ⋅ U 1 U 1 ⋅ U 1 , λ 2 = A ⋅ U 2 U 2 ⋅ U 2 , λ 3 = A ⋅ U 3 U 3 ⋅ U 3 \lambda_1={\frac{{{\bf{A}} \cdot {{\bf{U}}_1}}}{{{{\bf{U}}_1} \cdot {{\bf{U}}_1}}}},\lambda_2={\frac{{{\bf{A}} \cdot {{\bf{U}}_2}}}{{{{\bf{U}}_2} \cdot {{\bf{U}}_2}}}},\lambda_3={\frac{{{\bf{A}} \cdot {{\bf{U}}_3}}}{{{{\bf{U}}_3} \cdot {{\bf{U}}_3}}}} λ1=U1U1AU1,λ2=U2U2AU2,λ3=U3U3AU3
关于正交性,在后面的内容中会进一步描述,这里还是对正交性的进一步的铺垫。

1.4.4 n n n维向量初步引入

  将1.3节中的坐标系与向量的对应进行拓展,可以定义一个 n n n维向量 A = [ a 1 , a 2 , ⋯   , a n ] T {\bf{A}}=\left[a_1,a_2,\cdots,a_n\right]^T A=[a1,a2,,an]T

2. 向量空间与向量基

2.1 向量空间

官方定义: V V V n n n维向量的集合,如果集合 V V V非空,且集合 V V V对于向量的加法数乘两种运算封闭,那么就称集合 V V V向量空间
数学表达: a ∈ V , b ∈ V , λ ∈ R {\bf{a}}\in V,{\bf{b}}\in V,\lambda\in R aV,bV,λR,则 a + b ∈ V , λ a ∈ V a+b\in V,\lambda{\bf{a}}\in V a+bV,λaV

2.2 线性无关

  对于一组含有 r r r n n n维向量 a 1 , a 2 , ⋯   , a r {\bf{a}}_1,{\bf{a}}_2,\cdots,{\bf{a}}_r a1,a2,,ar的向量组,若找不到一组不是全零的参数 λ 1 , λ 2 , ⋯   , λ r \lambda_1,\lambda_2,\cdots,\lambda_r λ1,λ2,,λr使得
∑ j = 1 r λ j a j = 0 \begin{equation} \sum\limits_{j = 1}^r {{\lambda _j}{{\bf{a}}_j}} = 0 \end{equation} j=1rλjaj=0

或者也可以根据1.4.4节中的 n n n维向量的表达方式,令 a j = [ a 1 j , a 2 j , ⋯   , a n j ] T {\bf{a}}_j=\left[a_{1j},a_{2j},\cdots,a_{nj}\right]^T aj=[a1j,a2j,,anj]T,列写齐次矩阵方程的表达形式
[ a 11 a 12 ⋯ a 1 r a 21 a 22 ⋯ a 2 r ⋮ ⋮ ⋱ ⋮ a n 1 a n 2 ⋯ a n r ] [ λ 1 λ 2 ⋮ λ r ] = [ 0 0 ⋮ 0 ] \begin{equation} \left[ {\begin{matrix} {{a_{11}}}&{{a_{12}}}& \cdots &{{a_{1r}}}\\ {{a_{21}}}&{{a_{22}}}& \cdots &{{a_{2r}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{a_{n1}}}&{{a_{n2}}}& \cdots &{{a_{nr}}} \end{matrix}} \right]\left[ {\begin{matrix} {{\lambda _1}}\\ {{\lambda _2}}\\ \vdots \\ {{\lambda _r}} \end{matrix}} \right] = \left[ {\begin{matrix} 0\\ 0\\ \vdots \\ 0 \end{matrix}} \right] \end{equation} a11a21an1a12a22an2a1ra2ranr λ1λ2λr = 000

则称这个向量组中的所有向量都是线性无关的。
  还有一种理解是,若对其中的任意一个向量 a k {\bf{a}}_k ak,都无法找到一组参数 λ 1 , λ 2 , ⋯   , λ k − 1 , λ k + 1 , ⋯   , λ r \lambda_1,\lambda_2,\cdots,\lambda_{k-1},\lambda_{k+1},\cdots,\lambda_r λ1,λ2,,λk1,λk+1,,λr使得其它 r − 1 r-1 r1个向量能够线性表示该向量,即下式
a k = ∑ j = 1 , j ≠ k r λ j a j {{\bf{a}}_k} = \sum\limits_{j = 1,j \ne k}^r {{\lambda _j}{{\bf{a}}_j}} ak=j=1,j=krλjaj

∀ k ∈ [ 1 , r ] \forall k \in \left[ {1,r} \right] k[1,r]都不成立,则也称这一个向量组中的向量线性无关。

2.3 向量基

官方定义: V V V为向量空间,若有 r r r个向量 U 1 , U 2 , ⋯   , U r {\bf{U}}_1,{\bf{U}}_2,\cdots,{\bf{U}}_r U1,U2,,Ur满足:

  1. U 1 , U 2 , ⋯   , U r {\bf{U}}_1,{\bf{U}}_2,\cdots,{\bf{U}}_r U1,U2,,Ur线性无关;
  2. V V V中任一向量都可由 U 1 , U 2 , ⋯   , U r {\bf{U}}_1,{\bf{U}}_2,\cdots,{\bf{U}}_r U1,U2,,Ur线性表示。

那么就称 V V V r r r维向量空间,向量组 U 1 , U 2 , ⋯   , U r {\bf{U}}_1,{\bf{U}}_2,\cdots,{\bf{U}}_r U1,U2,,Ur为向量空间 V V V的一个基。

2.4 矢量分解的正交性要求

  前面已经多次提到正交性的概念,从1,2,3维向量举例说明了正交性情况下时,求各个标准向量对应的待定参数的方法。可能有人认为直接求方程组就可以了,为什么非要按照求导的方式来做呢。事实上,如果对于一般的,不满足正交关系的一组向量基,如果使用这样的一组向量基表示一个该向量空间下的任意一个向量,确实是只能通过求方程组的方法来求得参数。但是大家可以想一想,上面给出的求解方程组的方法的例子是基于2维和3维向量空间的,假如维数 n = 10 , 100 , 1000 , 10000 n=10,100,1000,10000 n=10,100,1000,10000呢?首先 n n n维向量空间的向量基中必须包含有 n n n个线性无关的至少 n n n维的向量(线性方程组求解的相关性质,这里不多做阐述,当然相信大家也能够理解),需要 n n n个,那么对矩阵方程的求解
[ u 11 u 12 ⋯ u 1 n u 21 u 22 ⋯ u 2 n ⋮ ⋮ ⋱ ⋮ u n 1 u n 2 ⋯ u n n ] [ λ 1 λ 2 ⋮ λ n ] = [ a 1 a 2 ⋮ a n ] → [ λ 1 λ 2 ⋮ λ n ] = [ u 11 u 12 ⋯ u 1 n u 21 u 22 ⋯ u 2 n ⋮ ⋮ ⋱ ⋮ u n 1 u n 2 ⋯ u n n ] − 1 [ a 1 a 2 ⋮ a n ] \begin{equation} \left[ {\begin{matrix} {{u_{11}}}&{{u_{12}}}& \cdots &{{u_{1n}}}\\ {{u_{21}}}&{{u_{22}}}& \cdots &{{u_{2n}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{u_{n1}}}&{{u_{n2}}}& \cdots &{{u_{nn}}} \end{matrix}} \right]\left[ {\begin{matrix} {{\lambda _1}}\\ {{\lambda _2}}\\ \vdots \\ {{\lambda _n}} \end{matrix}} \right] = \left[ {\begin{matrix} {{a_1}}\\ {{a_2}}\\ \vdots \\ {{a_n}} \end{matrix}} \right] \to \left[ {\begin{matrix} {{\lambda _1}}\\ {{\lambda _2}}\\ \vdots \\ {{\lambda _n}} \end{matrix}} \right] = {\left[ {\begin{matrix} {{u_{11}}}&{{u_{12}}}& \cdots &{{u_{1n}}}\\ {{u_{21}}}&{{u_{22}}}& \cdots &{{u_{2n}}}\\ \vdots & \vdots & \ddots & \vdots \\ {{u_{n1}}}&{{u_{n2}}}& \cdots &{{u_{nn}}} \end{matrix}} \right]^{ - 1}}\left[ {\begin{matrix} {{a_1}}\\ {{a_2}}\\ \vdots \\ {{a_n}} \end{matrix}} \right] \end{equation} u11u21un1u12u22un2u1nu2nunn λ1λ2λn = a1a2an λ1λ2λn = u11u21un1u12u22un2u1nu2nunn 1 a1a2an

  但是大家想一想,如果在 n n n非常大的时候,上式中的逆矩阵将如何求解?那将是一个非常困难的事情。而如果向量基中的所有向量都是正交的,即 U i U j = 0 , i ≠ j {\bf{U}}_i{\bf{U}}_j=0,i\ne j UiUj=0,i=j U i U i ≠ 0 , i = 1 , 2 , ⋯   , n {\bf{U}}_i{\bf{U}}_i\ne 0,i=1,2,\cdots,n UiUi=0,i=1,2,,n,那么参照前面的求解思路,对待定参数的求解可以写为
{ ∂ ∂ λ 1 ( ∑ j = 1 n λ j U j − A ) 2 = 2 ( λ 1 U 1 2 − U 1 A ) = 0 ∂ ∂ λ 2 ( ∑ j = 1 n λ j U j − A ) 2 = 2 ( λ 2 U 2 2 − U 2 A ) = 0 ⋮ ∂ ∂ λ n ( ∑ j = 1 n λ j U j − A ) 2 = 2 ( λ n U n 2 − U n A ) = 0 → λ j = A ⋅ U j U j ⋅ U j , j = 1 , 2 , ⋯   , n \begin{equation} \left\{ {\begin{matrix} {\frac{\partial }{{\partial {\lambda _1}}}{{\left( {\sum\limits_{j = 1}^n {{\lambda _j}{{\bf{U}}_j}} - {\bf{A}}} \right)}^2} = 2\left( {{\lambda _1}{\bf{U}}_1^2 - {{\bf{U}}_1}{\bf{A}}} \right) = 0}\\ {\frac{\partial }{{\partial {\lambda _2}}}{{\left( {\sum\limits_{j = 1}^n {{\lambda _j}{{\bf{U}}_j}} - {\bf{A}}} \right)}^2} = 2\left( {{\lambda _2}{\bf{U}}_2^2 - {{\bf{U}}_2}{\bf{A}}} \right) = 0}\\ \vdots \\ {\frac{\partial }{{\partial {\lambda _n}}}{{\left( {\sum\limits_{j = 1}^n {{\lambda _j}{{\bf{U}}_j}} - {\bf{A}}} \right)}^2} = 2\left( {{\lambda _n}{\bf{U}}_n^2 - {{\bf{U}}_n}{\bf{A}}} \right) = 0} \end{matrix}} \right.\to {\lambda _j} = \frac{{{\bf{A}} \cdot {{\bf{U}}_j}}}{{{{\bf{U}}_j} \cdot {{\bf{U}}_j}}},j = 1,2, \cdots ,n \end{equation} λ1(j=1nλjUjA)2=2(λ1U12U1A)=0λ2(j=1nλjUjA)2=2(λ2U22U2A)=0λn(j=1nλjUjA)2=2(λnUn2UnA)=0λj=UjUjAUj,j=1,2,,n

很多时候在问题中遇到的向量(在信号处理中对应信号的函数表达式)问题都是高维,甚至是无限维度的,所以如果在选择的向量基不满足正交性,那么求解问题将变得非常复杂,而如果将向量基限定为正交基,那么参数的求解的结果将变得非常容易。因此,通常在分析问题时,都选择正交向量基作为分解标准。

2.5 单位正交基

  为进一步简化计算,可以将使用单位长度的向量基对矢量进行分解分析,这样最终求得的每一个参数的值就直接表示了该矢量在该标准向量的方向上的分量大小。因此,通常使用单位正交基可以最大程度上简化计算,并且使求解的结果的数学和物理意义更加显著。

2.6 向量基的要求

  综上所述,通常在使用向量基时,向量基需要满足的性质条件包括:

  1. 完备性(包含唯一性);
  2. 正交性( U i U j = 0 , i ≠ j {\bf{U}}_i{\bf{U}}_j=0,i\ne j UiUj=0,i=j U i U i ≠ 0 , i = 1 , 2 , ⋯   , n {\bf{U}}_i{\bf{U}}_i\ne 0,i=1,2,\cdots,n UiUi=0,i=1,2,,n);
  3. 单位化( U i U i = 1 , i = 1 , 2 , ⋯   , n {\bf{U}}_i{\bf{U}}_i = 1,i=1,2,\cdots,n UiUi=1,i=1,2,,n)。

例如:单位矩阵 E n × n {\bf{E}}_{n\times n} En×n中的所有列向量所构成的向量组就是一组 n n n维向量空间的单位正交向量基。

3.结语

  以上就是本文从向量层面阐述的向量分解与向量基的基本问题,这是作为后续将向量引申为函数,以进一步解释信号分解的基底。文章来源地址https://www.toymoban.com/news/detail-858588.html

4. 参考资料

  1. 管致中, 夏恭恪, 孟桥. 信号与线性系统.上册[M]. 第6版. 北京: 高等教育出版社, 2015: 83-85.
  2. 同济大学. 工程数学与线性代数[M]. 第六版. 北京: 高等教育出版社, 2014: 104-119.
  3. 东南大学的《信号与线性系统》网课(孟桥老师yyds,b站和慕课上都有,本文对应的是该套视频的第三章的第一个视频《矢量的正交分解》)

到了这里,关于信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【CEEMDAN-CNN-LSTM】完备集合经验模态分解-卷积神经长短时记忆神经网络研究(Python代码实现)

    💥💥💞💞 欢迎来到本博客 ❤️❤️💥💥 🏆博主优势: 🌞🌞🌞 博客内容尽量做到思维缜密,逻辑清晰,为了方便读者。 ⛳️ 座右铭: 行百里者,半于九十。 📋📋📋 本文目录如下: 🎁🎁🎁 目录 💥1 概述 1.1 完备集合经验模态分解原理 1.2 鲸鱼优化 1.3 LSTM 📚

    2024年02月12日
    浏览(45)
  • 【CEEMDAN-WOA-LSTM】完备集合经验模态分解-鲸鱼优化-长短时记忆神经网络研究(Python代码实现)

    目录 💥1 概述 1.1 完备集合经验模态分解原理 1.2 鲸鱼优化 1.3 LSTM 📚2 运行结果 🎉3 参考文献 🌈4 Python代码实现 1.1 完备集合经验模态分解原理 早期的 EMD 方法具有较强的自适应性,能够有效地分解时间序列;但是,算法在运算过程中 容易出现模态混叠现象。EEMD 分解方法

    2024年02月15日
    浏览(47)
  • 线性代数的学习和整理20,关于向量/矩阵和正交相关,相似矩阵等

    目录 1 什么是正交 1.1 正交相关名词 1.2 正交的定义 1.3 正交向量 1.4 正交基 1.5 正交矩阵的特点 1.6 正交矩阵的用处 orthogonal set 正交向量组 正交变换 orthogonal matrix 正交矩阵 orthogonal basis 正交基 orthogonal decomposition 正交分解 正交的定义:内积为0 正交一定线性无关 其实不共线也

    2024年02月09日
    浏览(59)
  • 线性代数的学习和整理20,关于向量/矩阵和正交相关,相似矩阵等(草稿)

    目录 1 什么是正交 1.1 正交相关名词 1.2 正交的定义 1.3 正交向量 1.4 正交基 1.5 正交矩阵的特点 1.6 正交矩阵的用处 orthogonal set 正交向量组 正交变换 orthogonal matrix 正交矩阵 orthogonal basis 正交基 orthogonal decomposition 正交分解 正交的定义:内积为0 正交一定线性无关 其实不共线也

    2024年02月09日
    浏览(47)
  • 线性代数 --- Gram-Schmidt, 格拉姆-施密特正交化(下)

            到目前为止,我们都是在反复强调“对于无解的方程组Ax=b而言,如果矩阵A是标准正交矩阵的话,就怎么怎么好了。。。。”。因为,不论是求投影还是计算最小二乘的正规方程,他们都包含了的逆的计算。只有当A为标准正交矩阵Q时,就不再需要计算的逆了,这时,

    2024年02月13日
    浏览(57)
  • 线性代数 --- Gram-Schmidt, 格拉姆-施密特正交化(上)

            在前面的几个最小二乘的文章中,实际上已经看到Gram-Schmidt正交化的影子。在我个人看来,Gram-Schmidt正交化更像是专门为了简化最小二乘计算而量身定制的一种算法。下面,我会从最小二乘的经典应用 --- \\\"拟合直线\\\"开始,慢慢引出Gram-Schmidt的核心思想 —— 那就是,

    2024年02月10日
    浏览(50)
  • 关于信号的一些问题

    信号在操作系统中是非常重要的概念之一,因此在面试中经常会涉及到与信号相关的问题。以下是一些可能被问到的面试题: 什么是信号? 答:信号是进程间通信的一种方式,它是一种软件中断机制,用于通知进程发生了某个事件。信号可以由内核、进程本身或其他进程发

    2024年02月07日
    浏览(40)
  • 线性代数的学习和整理19,特征值,特征向量,以及引入的正交化矩阵概念

    目录 1 什么是特征值和特征向量? 1.1 特征值和特征向量这2个概念先放后 1.2 直观定义 1.3 严格定义 2 如何求特征值和特征向量 2.1 方法1:结合图形看,直观方法求 2.1.1 单位矩阵的特征值和特征向量 2.1.2 旋转矩阵 2.2  根据严格定义的公式 A*X=λ*X 来求 2.3  特征方程 2.4 互异特

    2024年02月09日
    浏览(67)
  • 线性代数 --- 最小二乘在直线拟合上的应用与Gram-Schmidt正交化

    在前一篇最小二乘的文章中: 线性代数 --- 投影与最小二乘 下(多元方程组的最小二乘解与向量在多维子空间上的投影)_松下J27的博客-CSDN博客 多变量方程组的最小二乘,向量到多维子空间上的投影。 https://blog.csdn.net/daduzimama/article/details/129559433?spm=1001.2014.3001.5501 我们知道了:

    2023年04月09日
    浏览(51)
  • [Eigen中文文档] 线性代数与分解

    文档总目录 英文原文(Linear algebra and decomposition) 本节说明如何求解线性系统,计算各种分解,如 LU 、 QR 、 SVD 、 特征分解 …… 求解基本线性系统 问题 :有一个方程组,写成矩阵方程如下: A x = b Ax = b A x = b 其中 A A A 和 b b b 是矩阵(作为一种特殊情况, b b b 也可以是一个

    2024年02月07日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包