机器学习-线性代数-1-向量、基底及向量空间

这篇具有很好参考价值的文章主要介绍了机器学习-线性代数-1-向量、基底及向量空间。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

概述

向量

理解

  1. 直观理解

    • 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [4 5]
    • 列向量:把数字排成一列A =   [ 4 5 ] \ \left [ \begin{matrix} 4 \\ 5 \\ \end{matrix} \right ]  [45]
  2. 几何意义

    默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    机器学习-线性代数-1-向量、基底及向量空间

    因此,向量中成分个数就是向量的维度。

  3. 注意

    • 充当数据的载体,向量的每个维度都作为事物的一种属性,比如一次考试的成绩,语文98分、数学89分,英语100分。这时用向量表示为   [ 98 89 100 ] \ \left [ \begin{matrix}98 \\89 \\100\\\end{matrix} \right ]   9889100
    • 一般使用列向量(默认):1、节省空间,2、在进行变换时类似于函数利于理解 A x Ax Ax f ( x ) f(x) f(x)
  4. Python演示

    1. 生成行向量

      import numpy as np
      
      A = np.array([1, 2, 3, 4])
      print(A)
      
      [1 2 3 4]
      
    2. 生成列向量(便于计算表示成 n ∗ 1 n * 1 n1的矩阵)

      import numpy as np
      
      A = np.array([[1, 2, 3]])
      print(A)
      print(A.T)
      
      [[1 2 3]]
      [[1]
       [2]
       [3]]
      

向量运算

  1. 向量加法

    两个维度相同的向量才能进行加法,对应维度元素相加即可。

    机器学习-线性代数-1-向量、基底及向量空间

    从空间的角度理解。

    就是两个向量的合向量。

    机器学习-线性代数-1-向量、基底及向量空间

    import numpy as np
    
    # 定义两个向量
    a = np.array([1, 2, 3])
    b = np.array([4, 5, 6])
    
    # 向量加法
    c = a + b
    print(c)
    
    [5 7 9]
    
    
  2. 向量数乘

    把数c与向量每个元素分别相乘,结果向量保持维数不变,直观理解,就是将向量沿着原来方向拉伸相应倍数,最终发现与运算数的符号有关。

    机器学习-线性代数-1-向量、基底及向量空间

    import numpy as np
    
    # 定义一个向量
    a = np.array([1, 2, 3])
    
    # 向量数乘
    k = 2
    b = k  * a
    
    print(b)
    
    [2 4 6]
    
  3. 线性性质阐述

    通过以上两个向量性质阐述,我们总结一下线性代数这么课中线性的内涵,凡是满足以上加法和数乘性质的代数运算,我们就成为线性运算,如果一个代数系统,满足线性运算,那么我们称这个代数系统为线性代数。线性代数就是研究其中性质的一门课。

  4. 向量的内积

    向量 u u u和向量 v v v內积定义如下:

    u ⋅ v = [ u 1   u 2   u 3 ] [ v 1   v 2   v 3 ] T = u 1 v 1 + u 2 v 2 + u 3 v 3 u·v = [u_1~u_2~u_3] [v_1~v_2~v_3]^T = u_1v_1 + u_2v_2 + u_3v_3 uv=[u1 u2 u3][v1 v2 v3]T=u1v1+u2v2+u3v3

    其物理意义是: u ⋅ v = ∣ u ∣ ∣ v ∣ c o s θ u ·v = |u||v|cos\theta uv=u∣∣vcosθ,也就是向量u在v上的投影长度与v模的乘积,可以方便求出u其在v上的投影

    机器学习-线性代数-1-向量、基底及向量空间

  5. 向量的外积

    我们只讨论二维平面和三维空间中的向量外积:

    • 在二维平面中:

      u × v = [ u 1   u 2 ] T × [ v 1   v 2 ] T = u 1 v 2 − u 2 v 1 u\times v = [u_1~u_2]^T \times [v_1~v_2]^T = u_1v_2 - u_2v_1 u×v=[u1 u2]T×[v1 v2]T=u1v2u2v1

      ∣ u × v ∣ = ∣ u ∣ ∣ v ∣ s i n θ |u \times v| = |u||v|sin \theta u×v=u∣∣vsinθ,表示两个向量张成的平行四边形面积

      机器学习-线性代数-1-向量、基底及向量空间

    • 在三维平面中:

      u × v = [ u 1   u 2   u 3 ] T × [ v 1   v 2   v 3 ] T = [ u 2 v 3 − u 3 v 2    u 3 v 1 − u 1 v 3   u 1 v 2 − u 2 v 1 ] u\times v = [u_1~u_2~u_3]^T \times [v_1~v_2~v_3]^T = [u_2v_3 - u_3v_2~~ u_3v_1 - u_1v_3~u_1v_2 - u_2v_1 ] u×v=[u1 u2 u3]T×[v1 v2 v3]T=[u2v3u3v2  u3v1u1v3 u1v2u2v1]

      表示两个向量所表示平面的法向量。

  6. 向量的线性组合

    在向量加法和数乘的基础上的组合应用。

基底与向量的坐标表示

基底与向量的深入

对于向量 u = [ 4   5 ] T u = [4~5]^T u=[4 5]T而言,我们一直以来都很理所应当的认为:他表示一条在 x x x轴上投影为4, y y y轴上投影为 5的有向线段,其坐标为 ( 4 , 5 ) (4, 5) (4,5)。这其实是基于了一个我们没有刻意强调的前提:我们是利用了方向为 x x x轴、 y y y轴正方向且长度为1的两个向量 e x = [ 1   0 ] T e_x = [1~0]^T ex=[1 0]T, e y = [ 0   1 ] T e_y = [0~1]^T ey=[0 1]T作为讨论基准。因此向量u的完整写法是: u = 4 e x + 5 e y , u = 4 [ 1   0 ] T + 5 [ 0   1 ] T u = 4e_x + 5e_y,u = 4[1~0]^T + 5[0~1]^T u=4ex+5ey,u=4[1 0]T+5[0 1]T

这里作为基准的向量 e x , e y e_x, e_y ex,ey便是基底,具体作用是当做参考系。基底的每个成员称作基向量。而坐标,就是各基向量前的系数。在已有基底的基础上,空间中的向量表示为坐标的形式,也可以看成基向量的线性组合。而且在不做说明的情况下,一般基向量选取坐标中正方向且长度为1的向量。

综上:向量 u u u的准确说法为:在基底 ( e x , e y ) (e_x,e_y) (ex,ey)下,以原点为出发点,终点为坐标 ( 4 , 5 ) (4,5) (4,5)的有向线段。

基底与向量选取与表示

同一向量在不同的基底下表示为不同坐标

在向量空间中的同一个向量 u u u,当我们基底分别选取 [ 1   0 ] T [1~0]^T [1 0]T [ 0   1 ] T [0~1]^T [0 1]T [ 1 2   1 2 ] T [\frac{1}{\sqrt{2}} ~\frac{1}{\sqrt{2}}]^T [2 1 2 1]T [ − 1 2   1 2 ] T [-\frac{1}{\sqrt{2}}~\frac{1}{\sqrt{2}}]^T [2 1 2 1]T时,在假设前者条件下表示为 u = [ 4   5 ] T u = [4~5]^T u=[4 5]T,则在后者为基底的情况下表示为 [ 9 2   1 2 ] T [\frac{9}{\sqrt{2}} ~\frac{1}{\sqrt{2}}]^T [2 9 2 1]T

机器学习-线性代数-1-向量、基底及向量空间

基底的特殊性

  1. 基向量满足线性无关

    在每个向量空间(解释在下)中每个向量都是唯一的,表示也是唯一的。当存在基向量线性相关时,对于空间中的向量表示就不是唯一了。

  2. 基底的数量要足够

    对于 n n n维空间,必须要有 n n n个线性无关的向量作为基底。拿三维空间举例,如果线性无关的基向量只有两个,那么其再怎么组合成的向量也只能在一个平面内,平面外的向量无法表示。

  3. R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别

    R n \mathbb{R}^n Rn空间表示所有 n n n维向量的集合(默认直角坐标系的基底),其中每个向量是 n n n维。

    n n n 维空间是指由 n n n 个线性无关的向量所张成的向量空间,更具体的解释为针对一个向量集合 V V V,如果任取V中的两个向量 u u u v v v,只要满足 u + v u+v uv仍然存在于 V V V中,同时任取标量 c c c,只要满足 c u cu cu仍然在 V V V中,那么这个集合 V V V就构成一个向量空间。

它们之间是相互区别的。

张成空间

一组向量,所有线性组合的向量构成的集合我们称之为这组向量张成的空间。

  • n n n个线性无关的向量张成的是 R n \mathbb{R}^n Rn空间
  • n n n个向量中, m m m个线性无关的向量,张成的是 R m \mathbb{R}^m Rm空间。

张成的向量空间维度与向量具体维度无关,原因即 R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别。文章来源地址https://www.toymoban.com/news/detail-496460.html

  • n n n个线性无关的向量张成的是 R n \mathbb{R}^n Rn空间
  • n n n个向量中, m m m个线性无关的向量,张成的是 R m \mathbb{R}^m Rm空间。

张成的向量空间维度与向量具体维度无关,原因即 R n \mathbb{R}^n Rn空间( n n n维向量空间)与 n n n维空间的区别。

到了这里,关于机器学习-线性代数-1-向量、基底及向量空间的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 机器学习-线性代数-2-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月11日
    浏览(43)
  • 线性代数的学习和整理16:什么是各种空间(类型),向量空间,距离(类型)?

    目录 1 空间相关的群,环,域,集合,空间的预备知识 1.1:群,环,域,集合,空间的定义(表示不懂,只是做个标记) 2 空间 2.1 各种空间概念 3 标量空间 4 向量空间/张成空间/线性空间(vector space/ linear space) 4.1 线性空间定义 4.2  向量空间的表现 4.3 加法和数乘的封闭性

    2024年02月10日
    浏览(49)
  • 线性代数学习笔记5-1:正交的向量/空间、正交补(行空间和零空间正交)

    向量 x boldsymbol x x 和向量 y boldsymbol y y 正交的定义: 就是说它们的点积 / 内积为零: x ⋅ y = 0 boldsymbol xcdotboldsymbol y=0 x ⋅ y = 0 也可以统一表示为向量乘法: x T y = 0 boldsymbol x^Tboldsymbol y=0 x T y = 0 向量的正交,可简单理解为两个向量在几何上 垂直 零向量与所有向量都正

    2024年02月05日
    浏览(75)
  • 机器学习-线性代数-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月07日
    浏览(66)
  • 机器学习——线性代数中矩阵和向量的基本介绍

    矩阵的基本概念(这里不多说,应该都知道) 而向量就是一个特殊的矩阵,即向量只有一列,是个n*1的矩阵 注 :一般矩阵用大写字母表示,向量用小写字母表示 先从简单开始,即一个矩阵和一个向量相乘的运算 矩阵相乘的结果的维度为 m*k 矩阵乘法满足结合律不满足交换律

    2024年02月21日
    浏览(45)
  • 线性代数的学习和整理17:向量空间的基,自然基,基变换等(未完成)

    目录 1 从颜色说起 1.1 用简单的枚举 → 一一映射到某种颜色 1.1.1  自然语言里的颜色对应 1.1.2 举个例子:VB里的colorindex 1.1.3 接下来的关键问题就是:如何对应更多的颜色,无限穷举么? 1.2 升级版的颜色映射思路:RGB颜色 1.2.1 RGB颜色大家都明白原理 1.2.2 表达方式1:用一个

    2024年02月10日
    浏览(42)
  • 机器学习-线性代数-3-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月11日
    浏览(46)
  • 机器学习-线性代数-2-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月15日
    浏览(43)
  • 【机器学习线性代数】03 再论矩阵:空间映射关系的描述

    目录 1.利用矩阵表示空间映射 2.矮胖矩阵对空间的降维压缩 2.1.空间降维的原理 2.2.实

    2024年03月13日
    浏览(40)
  • 线性代数(三) 线性方程组&向量空间

    如何利用行列式,矩阵求解线性方程组。 用矩阵方程表示 齐次线性方程组:Ax=0; 非齐次线性方程组:Ax=b. 可以理解 齐次线性方程组 是特殊的 非齐次线性方程组 如何判断线性方程组的解 其中R(A)表示矩阵A的秩 B表示A的增广矩阵 n表示末知数个数 增广矩阵 矩阵的秩 秩r= 未知

    2024年02月13日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包