机器学习-线性代数-矩阵与空间映射

这篇具有很好参考价值的文章主要介绍了机器学习-线性代数-矩阵与空间映射。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

矩阵

直观理解

一个 m × n m \times n m×n的大小矩阵,直观上看是 m × n m \times n m×n的数字按矩阵排列。

从向量的角度看,看做是 n n n m m m维列向量从左到右的排列,也可以看做 m m m n n n维行向量从上到下的叠放。

特殊矩阵

  1. 方阵:行数等于列数

  2. 对称矩阵:原矩阵与其转置矩阵相等: A = A T A = A^T A=AT

    转置:原始矩阵行列互换后得到的新矩阵,称为原矩阵 A A A的转置矩阵,记作: A T A^T AT

  3. 行矩阵和列矩阵可以看做是向量

  4. 零矩阵:元素全为0,记作: O m × n O_{m \times n} Om×n

  5. 对角矩阵:非对角元素全部为0的方阵

  6. 单位矩阵:对角元素全为1的对角矩阵

矩阵的基本运算

  1. 矩阵加法:两个同等规模的矩阵之间,对应行列元素相加即可
  2. 矩阵的数量乘法:将矩阵中每个元素都乘数乘的数

可见矩阵的运算系统中也包含线性运算

  1. 矩阵与矩阵相乘,举例: A A A, B B B两个矩阵

    1. 首先如果想要得到 A × B A \times B A×B的合法条件是, A A A的列数等于 B B B的行数

    2. 左边矩阵决定了目标矩阵的行数

    3. 右边矩阵决定了目标矩阵的列数

    4. 具体运算:乘积C的第m行第n列的元素等于矩阵A的第m行的元素与矩阵B的第n列对应元素乘积之和。

      机器学习-线性代数-矩阵与空间映射

矩阵( A A A)乘向量( x x x)的本质:改变空间位置

矩阵乘向量的具体运算可以看成是矩阵相乘的特殊情况,不做过多介绍。

  1. 从矩阵列的角度

    假设 A = [ c o l 1   c o l 2   . . . . . .   c o l n ] A = [col_1~col_2~......~col_n] A=[col1 col2 ...... coln],其中 c o l col col表示矩阵列表示的向量

    A x = [ c o l 1   c o l 2   . . . . . .   c o l n ] [ x 1   x 2   . . .   x n ] T = x 1 c o l 1 + x 2 c o l 2 + . . . + x n c o l n Ax = [col_1~col_2~......~col_n] [x_1~x_2~...~x_n]^T = x_1col_1 + x_2col_2 + ...+x_ncol_n Ax=[col1 col2 ...... coln][x1 x2 ... xn]T=x1col1+x2col2+...+xncoln

    可以看出:矩阵和向量相乘的过程就是对原矩阵的各列向量进行线性组合的过程,而线性组合的各系数就是向量的对应各成分。

  2. 进一步引申:变换向量的基底

    x =   [ x 1 x 2 . . . x n ] = x 1   [ 1 0 . . . 0 ] + x 2   [ 0 1 . . . 0 ] + . . . + x n   [ 0 0 . . . 1 ] x = \ \left [ \begin{matrix} x_1 \\ x_2 \\... \\x_n \\ \end{matrix} \right ] = x_1\ \left [ \begin{matrix} 1 \\ 0 \\... \\0 \\ \end{matrix} \right ] + x_2\ \left [ \begin{matrix} 0 \\ 1 \\... \\0 \\ \end{matrix} \right ] + ...+ x_n\ \left [ \begin{matrix} 0 \\ 0 \\... \\1 \\ \end{matrix} \right ] x=  x1x2...xn =x1  10...0 +x2  01...0 +...+xn  00...1 ​,向量 x x x​表示为在基底为 ( [ 1 0 . . . 0 ] , [ 0 1 . . . 0 ] , . . . , [ 0 0 . . . 1 ] ) (\left [ \begin{matrix} 1 \\ 0 \\... \\0 \\ \end{matrix} \right ], \left [ \begin{matrix} 0 \\ 1 \\... \\0 \\ \end{matrix} \right ],...,\left [ \begin{matrix} 0 \\ 0 \\... \\1 \\ \end{matrix} \right ]) ( 10...0 , 01...0 ,..., 00...1 )的坐标。

    我们来看一下在矩阵的作用下会发生怎样的变化。

    A x = [ a 11 … a 1 n ⋱ ⋮ a m 1 a m n ] m × n   [ x 1 x 2 . . . x n ] = x 1   [ a 11 a 21 . . . x m 1 ] + x 2   [ a 12 a 22 . . . x m 2 ] + . . . + x n   [ a 1 n a 2 n . . . x m n ] Ax=\begin{bmatrix} a_{11} & \dots & a_{1n}\\ & \ddots & \vdots\\ a_{m1} & & a_{mn} \end{bmatrix}_{m \times n}\ \left [ \begin{matrix} x_1 \\ x_2 \\... \\x_n \\ \end{matrix} \right ] = x_1\ \left [ \begin{matrix} a_{11} \\ a_{21} \\... \\x_{m1} \\ \end{matrix} \right ] + x_2\ \left [ \begin{matrix} a_{12} \\ a_{22} \\... \\x_{m2} \\ \end{matrix} \right ] + ...+x_n\ \left [ \begin{matrix} a_{1n} \\ a_{2n} \\... \\x_{mn} \\ \end{matrix} \right ] Ax= a11am1a1namn m×n  x1x2...xn =x1  a11a21...xm1 +x2  a12a22...xm2 +...+xn  a1na2n...xmn

    可以看出矩阵对于向量的作用相当于对其基底做了映射转换,由旧基底转换为“新基底”。

    映射后向量维数取决于矩阵的行数。

    至于为啥”新基底“加引号,请往下看。

  3. 特殊情况

    对于 m × n m \times n m×n的矩阵 A A A n n n维列向量 x x x x x x n n n n n n维默认基向量构成的基底被转换成了 n n n m m m维的目标向量。

    • n > m n > m n>m时,这 n n n个新向量线性相关,因此不能构成基底。
    • n < m n < m n<m时,这 n n n个新向量不足以表示 R m R^m Rm向量空间的所有向量,也不能构成基底。
    • 当且仅当 n = m n =m n=m并且这 n n n个新向量线性无关时,才能被称为变换了基底

    以上所说的基底都是相对于 R m R^m Rm向量空间而言

矩阵:空间映射关系

由于矩阵的作用,原始向量的空间位置甚至其所在空间的维度和形态都发生了改变,这就是矩阵乘法的空间映射作用

以下假设矩阵 A A A中的 n n n个列向量线性无关

矮胖矩阵对空间的降维压缩

m < n m< n m<n的时候,矩阵是一个外表"矮胖’的矩阵,向量 x x x R n R^n Rn空间中的一个 n n n维向量, x x x n n n个基向量 e e e分别被矩阵 A A A映射成了 n n n m m m维向量,由于 m < n m<n m<n,这一组目标向量所能张成的空间维数最大就是 m m m。这样一来,在矩阵 A A A的作用下,位于 R n R^n Rn空间中的任意向量 x x x,经过映射作用,都转换到了一个维数更低的新空间中的新位置。由此我们看出,“矮胖"矩阵 A A A压缩了原始空间 R n R^n Rn

高瘦矩阵无法覆盖目标空间

简单来说就是高瘦矩阵通过对原向量空间的映射是不能够表示目标向量空间的所有向量的。

其实变换后的空间是不会增多的

m × n m \times n m×n矩阵中的 m > n m > n m>n这种情况,我们称之为"高瘦"矩阵。
x x x n n n个基向量 e e e,分别被矩阵 A A A映射成了 n n n m m m维向量,由于 m > n m > n m>n,看上去 x x x映射后的目标向量的维数提高了,变成了 m m m维。那我们能不能说:经过矩阵 A A A的映射,原始向量 x x x构成的空间 R n R^n Rn变成了维数更高的空间 R m R^m Rm呢?答案是否定的,哲学点说,一个事物无中生有,那是不可能的,平白无故的一个向量携带的信息怎么能增加呢?

方阵映射

假设方阵 A n × n A_{n\times n} An×n

  1. 当方阵 A A A n n n个列向量线性无关时,意味着原始向量的基被映射成新向量后,仍然可以构成 R n R^n Rn空间里的一组基底。
  2. 当方阵 A A A n n n个列向量线性相关时,方阵则退化成了矮胖矩阵,参考前面所述即可。

矩阵的秩

我们把一个空间经过矩阵映射后得到的新空间称之为他的像空间。我们发现,一个原始空间,经过几个形状相同的矩阵进行映射,像空间的维数可能不同;经过几个不同形状的矩阵进行映射,又有可能得到维数相同的像空间。那么决定因素是什么?
决定因素就是空间映射矩阵的列向量,列向量张成空间的维数就是原始空间映射后的像空间维数。我们给矩阵列向量的张成空间维数取了一个名字,就叫作:矩阵的秩。从另一方面看,秩也可以说是该矩阵线性无关的列的个数。

间的维数可能不同;经过几个不同形状的矩阵进行映射,又有可能得到维数相同的像空间。那么决定因素是什么?
决定因素就是空间映射矩阵的列向量,列向量张成空间的维数就是原始空间映射后的像空间维数。我们给矩阵列向量的张成空间维数取了一个名字,就叫作:矩阵的秩。从另一方面看,秩也可以说是该矩阵线性无关的列的个数。文章来源地址https://www.toymoban.com/news/detail-466112.html

到了这里,关于机器学习-线性代数-矩阵与空间映射的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习-线性代数-3-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月15日
    浏览(35)
  • 机器学习-线性代数-2-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月11日
    浏览(43)
  • 机器学习-线性代数-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月06日
    浏览(61)
  • 机器学习-线性代数-1-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月10日
    浏览(58)
  • 【机器学习线性代数】06 解方程组:从空间的角度再引入

    目录 1.从空间映射的角度再来看方程组 2.究竟由谁决定方程组解的个数 2.1.情况一: r =

    2024年04月13日
    浏览(41)
  • 机器学习——线性代数中矩阵和向量的基本介绍

    矩阵的基本概念(这里不多说,应该都知道) 而向量就是一个特殊的矩阵,即向量只有一列,是个n*1的矩阵 注 :一般矩阵用大写字母表示,向量用小写字母表示 先从简单开始,即一个矩阵和一个向量相乘的运算 矩阵相乘的结果的维度为 m*k 矩阵乘法满足结合律不满足交换律

    2024年02月21日
    浏览(45)
  • 【线性代数/机器学习】矩阵的奇异值与奇异值分解(SVD)

    我们知道,对于一个 n × n ntimes n n × n 的矩阵 A A A ,如果 A A A 有 n n n 个线性无关的特征向量,则 A A A 可以相似对角化,即存在可逆矩阵 P P P 使得 A = P Λ P − 1 A=PLambda P^{-1} A = P Λ P − 1 ,其中 Λ Lambda Λ 是 A A A 的特征值组成的对角阵。 P P P 的列实际上就是 A A A 的特征向

    2024年02月10日
    浏览(42)
  • 线性代数笔记11--矩阵空间、秩1矩阵

    1. 矩阵空间 所有的 3 × 3 3 times 3 3 × 3 矩阵构成的空间 M M M 。 考虑空间 M M M 的子空间 上三角矩阵 对称矩阵 对角矩阵 3 x 3 3x3 3 x 3 矩阵空间的基: [ 1 0 0 0 0 0 0 0 0 ] [ 0 1 0 0 0 0 0 0 0 ] [ 0 0 1 0 0 0 0 0 0 ] [ 0 0 0 1 0 0 0 0 0 ] [ 0 0 0 0 1 0 0 0 0 ] [ 0 0 0 0 0 1 0 0 0 ] [ 0 0 0 0 0 0 1 0 0 ] [ 0 0 0 0 0 0

    2024年03月10日
    浏览(48)
  • 线性代数拾遗(6)—— 向量空间投影与投影矩阵

    参考:麻省理工线性代数 阅读本文前请先了解矩阵四个基本子空间,参考:线性代数拾遗(5) —— 矩阵的四个基本子空间 考察二维平面投影,如下将向量 b pmb{b} b 投影到向量 a pmb{a} a 方向,得到 a pmb{a} a 的子空间中的向量 p pmb{p} p ,假设是 a pmb{a} a 的 x x x 倍 如图可见

    2024年02月07日
    浏览(55)
  • 线性代数本质系列(二)矩阵乘法与复合线性变换,行列式,三维空间线性变换

    本系列文章将从下面不同角度解析线性代数的本质,本文是本系列第二篇 向量究竟是什么? 向量的线性组合,基与线性相关 矩阵与线性相关 矩阵乘法与复合线性变换 三维空间中的线性变换 行列式 逆矩阵,列空间,秩与零空间 克莱姆法则 非方阵 点积与对偶性 叉积 以线性

    2024年02月02日
    浏览(54)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包