矩阵理论| 基础:线性子空间(非平凡子空间)、空间分解、直和分解

这篇具有很好参考价值的文章主要介绍了矩阵理论| 基础:线性子空间(非平凡子空间)、空间分解、直和分解。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前置:线性代数学习笔记3-5:秩1矩阵和矩阵作为“向量”构成的空间

线性子空间

空间 V \mathbf V V有子空间 V 1 \mathbf V_1 V1(一组基为 α 1 , α 2 , . . . , α k \alpha_1,\alpha_2,...,\alpha_k α1,α2,...,αk)和子空间 V 2 \mathbf V_2 V2(一组基为 β 1 , β 2 , . . . , β l \beta_1,\beta_2,...,\beta_l β1,β2,...,βl),那么

  • 子空间的和 V 1 + V 2 \mathbf V_1+\mathbf V_2 V1+V2也是 V \mathbf V V的子空间,维数 r < k + l r<k+l r<k+l

基的求法:
将两个子空间的基 组合为矩阵 [ α 1 , . . . , α k , β 1 , . . . , β l ] \bold{[\alpha_1,...,\alpha_k,\beta_1,...,\beta_l]} [α1,...,αk,β1,...,βl],那么该矩阵行初等变换后得到的 r r r个线性无关列就是 V 1 + V 2 \mathbf V_1+\mathbf V_2 V1+V2 r r r个基向量

  • 子空间的交 V 1 ∩ V 2 \mathbf V_1\cap \mathbf V_2 V1V2也是 V \mathbf V V的子空间,维数 k + l − r k+l-r k+lr

基的求法:
V 1 ∩ V 2 \mathbf V_1\cap \mathbf V_2 V1V2中的向量,必须满足既能由 V 1 \mathbf V_1 V1的基表出,也能由 V 2 \mathbf V_2 V2的基表出,即满足方程 x 1 α 1 + x 2 α 2 + . . . + x k α k = y 1 β 1 + y 2 β 2 + . . . + y l β l x_1\alpha_1+x_2\alpha_2+...+x_k\alpha_k=y_1\beta_1+y_2\beta_2+...+y_l\beta_l x1α1+x2α2+...+xkαk=y1β1+y2β2+...+ylβl
我们需要若干组系数 x 1 , . . . , x k x_1,...,x_k x1,...,xk(或 y 1 , . . . , y l y_1,...,y_l y1,...,yl)来表出 V 1 ∩ V 2 \mathbf V_1\cap \mathbf V_2 V1V2的基向量,因此问题转化为求解方程 [ α 1 , . . . , α k , β 1 , . . . , β l ] x = 0 \bold{[\alpha_1,...,\alpha_k,\beta_1,...,\beta_l]x=0} [α1,...,αk,β1,...,βl]x=0,方程有 k + l − r k+l-r k+lr个无关的解,每个解对应的系数 x 1 , . . . , x k x_1,...,x_k x1,...,xk(或 y 1 , . . . , y l y_1,...,y_l y1,...,yl)给出了 V 1 ∩ V 2 \mathbf V_1\cap \mathbf V_2 V1V2的一个基

  • 子空间的并 V 1 ∪ V 2 \mathbf V_1\cup \mathbf V_2 V1V2一般不是 V \mathbf V V的子空间(不满足空间的加法封闭性)

非平凡子空间

对于任何空间而言,无需任何额外信息,即可知道他的两个子空间:{0}和整个空间本身

这两个子空间称为“平凡子空间”,除此以外的子空间都是“非平凡子空间”(必然是不满秩的子空间)

空间分解

整个空间可以分解为两个子空间 V 1 \mathbf V_1 V1 V 2 \mathbf V_2 V2,且两个子空间相加得到整个原空间
空间分解的本质,就是对基的分解
并且,一般的空间分解满足, V 1 + V 2 \mathbf V_1+\mathbf V_2 V1+V2的基 = V 1 \mathbf{V_1} V1的基+ V 2 \mathbf{V_2} V2的基- V 1 ∩ V 2 \mathbf{V_1} \cap \mathbf{V_2} V1V2这个交集的基
由上,进一步有 d i m ( V 1 + V 2 ) = d i m V 1 + d i m V 2 − d i m ( V 1 ∩ V 2 ) dim(\mathbf V_1+\mathbf V_2)=dim\mathbf V_1+dim\mathbf V_2-dim(\mathbf{V_1} \cap \mathbf{V_2}) dim(V1+V2)=dimV1+dimV2dim(V1V2)
矩阵理论| 基础:线性子空间(非平凡子空间)、空间分解、直和分解

特殊的空间分解:直和分解

上面的情况,空间分解后,两个子空间有公共的基向量;
我们也可以分解使得 V 1 \mathbf V_1 V1 V 2 \mathbf V_2 V2没有有公共的基向量,这就是直和分解
或者说,普通的空间分解和直和分解,都是分解空间的基底,区别是直和分解完全解耦、分解出两组基

可见,直和分解,就是将原空间的基分为两组、分别张成两个自空间(没有公共的基)

进而,N维空间,可以不断分解为N个一维子空间的和

空间中的任意向量,可以表示为子空间 V 1 \mathbf V_1 V1中向量和子空间 V 2 \mathbf V_2 V2中向量的叠加,如果这种表示是唯一的,称为直和分解

  • 如图,左侧做空间分解后,空间中任意向量的表示是唯一的,这是直和分解;
    右侧则不是直和分解,因为 V 1 \mathbf V_1 V1 V 2 \mathbf V_2 V2有公共的基( S ∩ U ≠ { 0 } \mathbf{S} \cap \mathbf{U}\neq \{0\} SU={0}),从而导致了任意向量的表示不唯一(可以 V 1 \mathbf V_1 V1多贡献一些分量,也可以 V 2 \mathbf V_2 V2多贡献)矩阵理论| 基础:线性子空间(非平凡子空间)、空间分解、直和分解
  • 直和分解的判定:
    矩阵理论| 基础:线性子空间(非平凡子空间)、空间分解、直和分解

矩阵理论学习推荐:矩阵理论学习导引文章来源地址https://www.toymoban.com/news/detail-494212.html

到了这里,关于矩阵理论| 基础:线性子空间(非平凡子空间)、空间分解、直和分解的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • SLAM ORB-SLAM2(22)分解基础矩阵

    在 《SLAM ORB-SLAM2(12)估算运动并初始地图点》 中了解到 估算两帧间相对运动过程: 记录特征点对的匹配关系 RANSAC 采样准备 计算H矩阵或者F矩阵 判断并选取模型求位姿过程 在

    2024年04月15日
    浏览(45)
  • 矩阵理论| 基础:矩阵范数

    类似向量范数,矩阵范数需要满足以下条件: ∥ A ∥ ≥ 0 Vert AVertge 0 ∥ A ∥ ≥ 0 , ∥ A ∥ = 0 Vert AVert=0 ∥ A ∥ = 0 当且仅当 A = 0 A=0 A = 0 ∥ c A ∥ = ∣ c ∣ ⋅ ∥ A ∥ Vert cAVert=vert cvertcdotVert AVert ∥ c A ∥ = ∣ c ∣ ⋅ ∥ A ∥ ∥ A + B ∥ ≤ ∥ A ∥ + ∥ B ∥ Vert A+BVer

    2024年02月08日
    浏览(40)
  • 推荐系统 | 基础推荐模型 | 矩阵分解模型 | 隐语义模型 | PyTorch实现

    基础推荐模型——传送门 : 推荐系统 | 基础推荐模型 | 协同过滤 | UserCF与ItemCF的Python实现及优化 推荐系统 | 基础推荐模型 | 矩阵分解模型 | 隐语义模型 | PyTorch实现 推荐系统 | 基础推荐模型 | 逻辑回归模型 | LS-PLM | PyTorch实现 推荐系统 | 基础推荐模型 | 特征交叉 | FM | FFM |

    2023年04月09日
    浏览(51)
  • 信号与系统的一些基本问题之信号分解完备正交基[1]—线性代数向量空间与向量基的基础

      由于一些前后概念是嵌套在一起,密切相关的,但是它们的认知深度的层次又有先后差异,所以为循序渐进,这里在讲解时会存在部分的后面的概念往前提以帮助当前概念的理解以确保大家每一步都能看得懂,并为后续概念作铺垫,文中所有存在这种概念嵌套的情况都有

    2024年04月26日
    浏览(52)
  • 矩阵范数与图论: 在图论中的应用和理论基础

    矩阵范数和图论是计算机科学和数学领域中的两个重要概念。矩阵范数是一种用于衡量矩阵“大小”的度量,而图论则是用于描述和分析网络结构的工具。在本文中,我们将探讨这两个领域之间的联系,并讨论它们在实际应用中的重要性。 矩阵范数的概念可以追溯到19世纪的

    2024年04月10日
    浏览(37)
  • 图像处理中,采用极线约束准则来约束特征点匹配搜索空间,理论上在极线上进行搜索。这里的极线是什么线,怎么定义的?基本矩阵F和本质矩阵E有什么区别?

    问题描述:图像处理中,采用极线约束准则来约束特征点匹配搜索空间,理论上在极线上进行搜索。这里的极线是什么线,怎么定义的?基本矩阵F和本质矩阵E有什么区别? 问题1解答: 极线是通过极线几何学的原理定义的。在摄影测量学和计算机视觉中,极线是由两个相机

    2024年01月19日
    浏览(40)
  • 图像处理基础——视觉感知要素及空间变化矩阵

    本章重点掌握内容 视觉感知要素 像素间的一些基本关系,计算 空间变换的坐标公式与应用 灰度值插值小结  视网膜感受的颠倒信号,在通过视神经传导到大脑皮层的视觉中枢后,在视觉中枢实现自动翻转。 目录 视觉感知要素 亮度适应与辨别 像素间的一些基本关系 相邻像

    2024年02月03日
    浏览(32)
  • 矩阵理论| 基础:Jordan标准型(从Jordan标准型求代数重数/几何重数/特征向量)

    相似矩阵,本质上是同一个线性变换在不同坐标系下的矩阵 因此,两个矩阵相似的一大特点是:特征值相同,各特征值的几何重数/代数重数相同 进而,我们可以用特征多项式、特征值、行列式、迹、秩 等相似不变量来迅速辅助判定两个矩阵是否相似,但这些都不是充要条件

    2024年02月05日
    浏览(45)
  • 矩阵理论| 基础:特征值与特征向量、代数重数/几何重数、相似对角化和Jordan标准型

    矩阵 A mathbf A A 的特征值与特征向量满足 A x = λ x mathbf Amathbf x=lambdamathbf x Ax = λ x ,即 ( A − λ I ) x = 0 (mathbf A-lambdamathbf I)mathbf x=0 ( A − λ I ) x = 0 ,且 x ≠ 0 mathbf xneq0 x  = 0 特征值 : d e t ( A − λ I ) = 0 det(mathbf A-lambdamathbf I)=0 d e t ( A − λ I ) = 0 的根,其中 p ( λ

    2024年02月05日
    浏览(55)
  • ORB-SLAM之SVD奇异值分解——理论 (一)

    在学习《视觉SLAM十四讲》过程中常遇到SVD奇异值分解,经过一段时间的学习,在此进行记录整理, 本篇主要整理SVD的数学理论基础, 下一篇 进行整理 SVD 实际应用 。 给定一大小为 m × m mtimes m m × m 的矩阵 A A A ( 方阵 ),其对角化分解可以写成 A = U Λ U − 1 A=ULambda U^{-1} A =

    2024年02月07日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包