机器学习-线性代数-2-逆映射与向量空间

这篇具有很好参考价值的文章主要介绍了机器学习-线性代数-2-逆映射与向量空间。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

逆映射与向量空间

一、逆映射

矩阵的本质是映射。对于一个 m × n m × n m×n的矩阵,乘法 y = A x y = Ax y=Ax的作用就是将向量从 n n n维原空间中的 x x x坐标位置,映射到 m m m维目标空间的 y y y坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y去反推原向量的坐标 x x x,这个过程就称之为逆映射,因为逆映射也是一种映射过程,因此表征逆映射的矩阵,我们称之为: A − 1 A^{-1} A1

从上面的表述可以清楚的看到,原矩阵与逆矩阵的关系是双射。这也是存在逆的充要条件

1. 矮胖矩阵映射不可逆

映射压缩了原来的向量空间,使得其不满足单射的条件:原空间对目标空间存在多对一的情况

2. 高瘦矩阵映射不可逆

目标向量空间无法被原空间向量完全覆盖,不满足满射条件:目标空间对原空间存在多对一的情况

3. 方阵逆映射的存在条件

当方阵中列向量线性相关时,结合了矮胖和高瘦矩阵的所有条件,一定不存在逆映射

当方阵中列向量线性相关时,存在逆映射,为什么呢?后面会有解释。

二、向量空间及其子空间

1. 向量空间
1) 最常见的向量空间: R n R^n Rn

R n R^n Rn空间由所有含有 n n n个成分的列向量构成。

2) 向量空间的一般性定义

向量空间不仅仅局限于 R n R^n Rn,当然我们这里只讨论狭义上的向量空间(不讨论广义的例如矩阵、函数空间等或者扩展到复数域上),那么针对一个向量集合 V V V,如果任取V中的两个向量 u u u v v v,只要满足 u + v u+v uv仍然存在于 V V V中,同时任取标量 c c c,只要满足 c u cu cu仍然在 V V V中,那么这个集合 V V V就构成一个向量空间.

2. 子空间

用子集与集合的关系来类比子空间和向量空间的关系。如果一个向量空间 U U U,他的子集 V V V也是一个向量空间(满足向量加法和标量乘法的性质要求),那么 V V V U U U的子空间。

m × n m \times n m×n的矩阵 A A A,矩阵中所蕴含的四个非常重要的子空间:列空间、零空间、行空间和左零空间。

1) 列空间

对于矩阵 A A A而言,它包含了 n n n m m m维的列向量,那么 A A A的列空间就包含所有这 n n n m m m维列向量的线性组合。由于各列都在 R m R^m Rm空间中,并且列空间中任意两个向量的和以及任意向量与任意标量的数量积依然都可以表示为列向量的线性组合的形式,意味着矩阵A的列空间 C ( A ) C(A) C(A)是一个向量空间,并且是 R m R^m Rm空间的子空间。

2) 零空间

对于一个 m × n m × n m×n的矩阵 A A A而言,所有满足 A x = 0 Ax=0 Ax=0的向量 x x x的集合就称之为矩阵 A A A的零空间,记作 N ( A ) N(A) N(A),如果矩阵 A A A的各列线性无关,则 x x x就只有零向量这个唯一解,如果 A A A的各列线性相关,那么 x x x就有非零解。
零空间也是一个向量空间,对于一个 m × n m \times n m×n的矩阵而言,他的零空间里的向量是 n n n维的,因此零空间是 R n R^n Rn的子空间。

3) 行空间

对于 m × n m × n m×n的矩阵 A A A,他的行空间就是由矩阵各行的向量所张成的空间,那么我们换个角度来看 A A A的行向量就是转置后 A n A^n An的列向量。因此我们不难发现,矩阵 A A A的行空间就是转置后 A T A^T AT的列空间,记作: C ( A T ) C(A^T) C(AT) A A A的行向量有 n n n个成分,因此行空间是 R n R^n Rn的子空间,至于说向量空间成立的证明就不再叙说了。

4) 左零空间

仍旧从转置矩阵的角度切入去理解,就会比较容易。对于 m × n m × n m×n的矩阵 A A A,他的左零空间就是转置矩阵 A T A^T AT的零空间,即满足: A T x = 0 A^Tx =0 ATx=0的所有向量的集合,我们将其记作 N ( A T ) N(A^T) N(AT)
左零空间的相关性质也不难得到,他是 R m R^m Rm空间的子空间。

现在可以解答上面为何只有方阵中列向量线性相关时,存在逆映射了。

如果一个矩阵 A A A存在着逆映射,则意味着其映射后的点是要能被唯一还原的,因此显然零空间 N ( A ) N(A) N(A)对应的不能是一维直线、二维平面,而只能是一个点,也就是原始空间中的 0 0 0向量,即如果一个矩阵可逆,他的 N ( A ) N(A) N(A)必须是 0 0 0维的。

如果 A A A的零空间不是零维,则在列空间存在不止一组线性组合得零向量,也就是在原空间中存在不止一个向量被映射成零向量,不符合一对一的关系。

3. 秩

矩阵列向量或行向量的张成空间维数,矩阵线性无关的列的个数。

1) 列空间与零空间的关联

矩阵 A A A的列空间 C ( A ) C(A) C(A)的维度就是矩阵 A A A的秩 r r r
零空间,从几何意义上讲,零空间就是原空间中通过矩阵 A A A映射到目标空间原点的向量空间,这个原点依据定义也必须在列空间中。在这个 m × n m × n m×n的矩阵映射作用下,整个零空间的维度 x x x被压缩成了 0 0 0(即一个点的维度),那么我们可以引申出,原空间中的 x x x维区域变成了列空间中的一个 0 0 0维点,因此经过矩阵的线性映射,前后的空间维数之差也为 x x x,因为由 A A A进行变换的原空间是 n n n维的,而映射后的列空间是 r r r维的,两个空间的维数之差 n − r n -r nr就是空间压缩的维数,依据我们所讲, n − r n - r nr也就是零空间 N ( A ) N(A) N(A)的维数。

2) 列空间与行空间的关联

在一个矩阵中,我不难发现,线性无关的行向量的个数其实是和线性无关的列向量的个数是相等的。

因此,我们可以得出结论: 行空间 C ( A T ) C(A^T) C(AT)的维数也是矩阵的 r r r

3) 行空间和左零空间

由上面两个关联的陈述,可知, C ( A T C(A^T C(AT)的维度是 r r r,而矩阵 A T A^T AT对应的映射前的原空间是 m m m,那么左零空间 N ( A T ) N(A^T) N(AT)的维度就是 m − r m - r mr文章来源地址https://www.toymoban.com/news/detail-509012.html

到了这里,关于机器学习-线性代数-2-逆映射与向量空间的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习-线性代数-1-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月10日
    浏览(59)
  • 机器学习-线性代数-3-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月11日
    浏览(46)
  • 机器学习-线性代数-2-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月15日
    浏览(43)
  • 【机器学习线性代数】03 再论矩阵:空间映射关系的描述

    目录 1.利用矩阵表示空间映射 2.矮胖矩阵对空间的降维压缩 2.1.空间降维的原理 2.2.实

    2024年03月13日
    浏览(40)
  • 线性代数的学习和整理16:什么是各种空间(类型),向量空间,距离(类型)?

    目录 1 空间相关的群,环,域,集合,空间的预备知识 1.1:群,环,域,集合,空间的定义(表示不懂,只是做个标记) 2 空间 2.1 各种空间概念 3 标量空间 4 向量空间/张成空间/线性空间(vector space/ linear space) 4.1 线性空间定义 4.2  向量空间的表现 4.3 加法和数乘的封闭性

    2024年02月10日
    浏览(49)
  • 线性代数学习笔记5-1:正交的向量/空间、正交补(行空间和零空间正交)

    向量 x boldsymbol x x 和向量 y boldsymbol y y 正交的定义: 就是说它们的点积 / 内积为零: x ⋅ y = 0 boldsymbol xcdotboldsymbol y=0 x ⋅ y = 0 也可以统一表示为向量乘法: x T y = 0 boldsymbol x^Tboldsymbol y=0 x T y = 0 向量的正交,可简单理解为两个向量在几何上 垂直 零向量与所有向量都正

    2024年02月05日
    浏览(76)
  • 机器学习——线性代数中矩阵和向量的基本介绍

    矩阵的基本概念(这里不多说,应该都知道) 而向量就是一个特殊的矩阵,即向量只有一列,是个n*1的矩阵 注 :一般矩阵用大写字母表示,向量用小写字母表示 先从简单开始,即一个矩阵和一个向量相乘的运算 矩阵相乘的结果的维度为 m*k 矩阵乘法满足结合律不满足交换律

    2024年02月21日
    浏览(45)
  • 线性代数的学习和整理17:向量空间的基,自然基,基变换等(未完成)

    目录 1 从颜色说起 1.1 用简单的枚举 → 一一映射到某种颜色 1.1.1  自然语言里的颜色对应 1.1.2 举个例子:VB里的colorindex 1.1.3 接下来的关键问题就是:如何对应更多的颜色,无限穷举么? 1.2 升级版的颜色映射思路:RGB颜色 1.2.1 RGB颜色大家都明白原理 1.2.2 表达方式1:用一个

    2024年02月10日
    浏览(42)
  • 线性代数(三) 线性方程组&向量空间

    如何利用行列式,矩阵求解线性方程组。 用矩阵方程表示 齐次线性方程组:Ax=0; 非齐次线性方程组:Ax=b. 可以理解 齐次线性方程组 是特殊的 非齐次线性方程组 如何判断线性方程组的解 其中R(A)表示矩阵A的秩 B表示A的增广矩阵 n表示末知数个数 增广矩阵 矩阵的秩 秩r= 未知

    2024年02月13日
    浏览(47)
  • 线性代数(魏福义)——第一章:向量与线性空间

    坐标系中可使用向量处理几何与运动学的问题,一般使用到二维或者三维有序数组,如(x,y)、(x,y,z),这样的数组称作 向量, 实际问题会用到更多维的向量。 1.1.1向量 以有序数组表示向量。n个数排成的有序数组就是n维向量。 α=(a1,a2,a3...,an)称为 行向量 ;将其

    2024年03月21日
    浏览(53)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包