线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)

这篇具有很好参考价值的文章主要介绍了线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

张成(span):

线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)

例一:

线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)

        因为,w1与w2线性无关,且二者的第三分量都是0,所以只能张成一个二维平面。又因为w1和w2都是三维向量,所以,是三维空间中的一个二维平面。w1和w3线性相关,又都只有第一个分量起作用,所以只能张成一条直线。

例二:

线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)


基底(basis):

线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)

基底不唯一:

线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)

例一:

线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)

例10中的列空间属于R3,却因为只存在两个非零主元列,所以是R3的二维子空间。 


维数(dimension of vector space):

线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)

        就这个定理而言,单从字面意思上去理解,向量空间V的维数,等于该向量空间中,任意一个基底所包含的元素个数。例如,在x-y平面,他的可能的一组基底是[0 1],[1 0]。这两个基底中的任意一个基底的元素个数都是两个,因此,向量空间的维数是2,即二维。

补充:

        考虑上面的这个矩阵,已知,A为2x3矩阵,秩r=2。求A或U的列空间:       

        一方面,列空间的一组基底为[1 0]',[0 1]',A的列空间是各列的线性组合,当然也是基底的线性组合。基底中的列向量所包含的元素个数为2。因此,列空间的维度为2。另一个方面,根据线性代数中关于四个基本子空间的相关定理,A的列空间的维度等于秩r,等于A中所有线性无关的列向量的个数2。(注意,这里说的是向量的个数,而不是向量中元素的个数,或者说向量的维度)

        可见,A的列空间分别从两个角度去理解,得到了相同的维度2。A的列空间充满了整个空间。

        对于A的行空间而言,一方面,行空间的基底为[1 0 0],[0 1 0]共两个行向量,每个行向量包含的元素个数为3。因此,行空间的维度为3。另一方面,A的行空间的维度等于A的秩,又因为,列秩等于行秩,等于A中线性无关行的个数。得出,A的行空间的维数是2。

        不矛盾:秩永远小于等于min(m,n),所以,用第二种方式求得的维数要么是第一种方式求得的维数的子空间,要么就能充满全部空间。


(全文完)

作者 --- 松下J27

鸣谢(参考文献):

1,《Introduction to Linear Algebra》,5th Edition - Gilbert Strang

 2,线性代数及其应用,侯自新,南开大学出版社,1990.

格言摘抄:八戒,八戒,心肠不坏。(天上掉下个猪八戒主题曲)

线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)

  (配图与本文无关)

版权声明:所有的笔记,可能来自很多不同的网站和说明,在此没法一一列出,如有侵权,请告知,立即删除。欢迎大家转载,但是,如果有人引用或者COPY我的文章,必须在你的文章中注明你所使用的图片或者文字来自于我的文章,否则,侵权必究。 ----松下J27​文章来源地址https://www.toymoban.com/news/detail-441420.html

到了这里,关于线性代数 --- 张成(span),基底(basis)与向量空间的维数(dimension of vector space)(个人学习笔记)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 线性代数(三) 线性方程组&向量空间

    如何利用行列式,矩阵求解线性方程组。 用矩阵方程表示 齐次线性方程组:Ax=0; 非齐次线性方程组:Ax=b. 可以理解 齐次线性方程组 是特殊的 非齐次线性方程组 如何判断线性方程组的解 其中R(A)表示矩阵A的秩 B表示A的增广矩阵 n表示末知数个数 增广矩阵 矩阵的秩 秩r= 未知

    2024年02月13日
    浏览(47)
  • 线性代数(魏福义)——第一章:向量与线性空间

    坐标系中可使用向量处理几何与运动学的问题,一般使用到二维或者三维有序数组,如(x,y)、(x,y,z),这样的数组称作 向量, 实际问题会用到更多维的向量。 1.1.1向量 以有序数组表示向量。n个数排成的有序数组就是n维向量。 α=(a1,a2,a3...,an)称为 行向量 ;将其

    2024年03月21日
    浏览(53)
  • 向量空间模型的线性代数基础

    [toc] 线性代数是向量空间模型的基础,对于学习向量空间模型的朋友,理解线性代数基础知识是非常必要的。本文将介绍向量空间模型的线性代数基础,包括基本概念、技术原理、实现步骤、应用示例以及优化与改进等内容。 引言 线性代数是数学的一个分支,主要研究线性

    2024年02月16日
    浏览(44)
  • 线性代数中的向量和向量空间的应用

    作者:禅与计算机程序设计艺术 作为一位人工智能专家,程序员和软件架构师,我深知线性代数在数据处理和机器学习中的重要性。本文旨在探讨线性代数中向量和向量空间的应用,帮助读者更好地理解和应用这些技术。 技术原理及概念 线性代数是数学的一个分支,主要研

    2024年02月14日
    浏览(53)
  • 线性代数3,什么是向量 向量空间(草稿,建设ing)

    目录 1 标量 scalar 2 向量 /矢量 vector 2.1 什么是向量(直观) 2.2 什么是向量(严格定义) 2.3 向量如何表示?在向量空间的表示方法 3 矩阵(matrix) 3.1 矩阵的定义 3.2 矩阵和向量的关系 3.3  方阵 4 ​张量(tensor):向量,矩阵都可以看成张量 4.1 张量的定义 4.2 更多维度的张量,举

    2024年02月12日
    浏览(36)
  • 机器学习-线性代数-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月09日
    浏览(46)
  • 线性代数 --- 向量空间(vector space)与子空间(subspace)

            向量空间就是由包含n个分量的列向量所组成的Rn的空间,其中R表示实数。例如,R2就代表了一般的x-y平面,其中包含两个分量的向量表示坐标系中的一个点(x,y)。同理,R3中的一个向量,包含三个分量,可以表示三维坐标系中的一个点(x,y,z)。 也就是说,向量空间,

    2024年02月05日
    浏览(77)
  • 机器学习-线性代数-3-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月15日
    浏览(35)
  • 线性代数拾遗(6)—— 向量空间投影与投影矩阵

    参考:麻省理工线性代数 阅读本文前请先了解矩阵四个基本子空间,参考:线性代数拾遗(5) —— 矩阵的四个基本子空间 考察二维平面投影,如下将向量 b pmb{b} b 投影到向量 a pmb{a} a 方向,得到 a pmb{a} a 的子空间中的向量 p pmb{p} p ,假设是 a pmb{a} a 的 x x x 倍 如图可见

    2024年02月07日
    浏览(55)
  • 机器学习-线性代数-2-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月11日
    浏览(43)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包