保研线性代数复习3

这篇具有很好参考价值的文章主要介绍了保研线性代数复习3。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

一.基底(Basis)

1.什么是生成集(Generating Set)?什么是张成空间(Span)?

存在向量空间V=(V,+,*),和向量集(xi是所说的列向量),如果每一个属于V的向量都能被A中向量线性组合来表示,那么说明 A 是向量空间 V 的生成集A的所有线性组合(所有线性组合不同)称为A的张成空间。

如果A张成了线性空间V,写成V=span[A]=span[x1,...,xk]。

2.什么是基底(Basis)?

基底是相对于向量空间来说的每一个向量空间都拥有一个基底例如向量空间V,向量空间V的基底B是向量空间V最小的(除了B之外没有B的子集可以张成向量空间V)线性无关的生成集。对于基底B,增加任何其他向量到B中都会让这个向量集合线性相关,所以基底B也称作向量空间V中最大线性无关的集合。

举例:的标准基是(当然不止下面这几个)

保研线性代数复习3,线性代数,机器学习,人工智能保研线性代数复习3,线性代数,机器学习,人工智能

3.如何定义向量空间的维数(dimension)?

对于一个确定的向量空间V,向量空间V的基底中基向量(列向量)的个数是相同的。并且基底中基向量的个数等于向量空间的维数。

4.给定一个矩阵A(n个列向量),A是向量空间V的子集,如何找到A张成的向量空间的基底?

根据行阶梯法找到A中线性无关的向量组合。

5.什么是标准正交基(ONB)?

对于一组基底,如果

,那么称基底B为标准正交基。

标准正交基构成的矩阵Q有的特点:

,如果只是正交矩阵的话,那么

二.秩(Rank)

1.什么是矩阵A的秩rk(A)?

矩阵,矩阵A线性无关的行向量的个数=矩阵A线性无关的列向量的个数=rk(A)

2.矩阵的秩的性质如下:

矩阵A的秩=矩阵A的转置的秩

矩阵的列向量张成一个子空间,dim(U)=rk(A)

如果矩阵是正则的/可逆的,那么rk(A)=n

线性方程组有解的条件是rk(A)=rk(A|b)

对于,的解的维数是n-rk(A)

如果满秩,那么rk(A)=min(m,n)

3.矩阵满秩意味着什么?

矩阵满秩=n阶方阵的n阶子式不等于0=n阶方阵的行列式值为0

=如果不是方阵写成行向量或者列向量时线性无关

三.线性映射(Linear Mapping)

1.什么是线性映射?

对于向量空间V和W,存在一种映射称为线性映射并且要满足下面的条件:保研线性代数复习3,线性代数,机器学习,人工智能

2.什么是单射双射满射?

单射满射双射都是基于线性映射,满足不同的情况的时候线性映射称为单射满射双射。

单射(injective):保研线性代数复习3,线性代数,机器学习,人工智能原域中的样本对应目标域中的不同元素。

满射(surjective):保研线性代数复习3,线性代数,机器学习,人工智能原域中至少存在一个目标域对应元素,原域中的样本就应该把目标域中的样本对应满。

双射(bijective):单射和满射

3.什么是同构(Isomorpshism)?什么是自同态(Endomorphism)?什么是自同构(Automorphism)?

同构:线性映射and双射,两个有限维度的向量空间同构说明他们的维度相同。如果是同构的,那么也是同构的。

自同态:,线性

自同构:,线性and双射

4.什么是坐标(coordinate)?

对于一个线性空间V,和向量空间V的有序基底B=(b1,...bn),对于任何一个,我们都能得到一个唯一的线性组合保研线性代数复习3,线性代数,机器学习,人工智能,这些α1...αn称为是向量x相对于基底B的坐标。如果基底B不同,那么表示一个向量x的坐标不同。

5.什么是转换矩阵(Transformation Matrix)?

对于向量空间V和W,考虑向量空间V的基底向量空间W的基底,并且考虑由V到W的线性映射φ,有:

保研线性代数复习3,线性代数,机器学习,人工智能

我们称作转换矩阵A,。

6.什么是恒等变换(Identity mapping)?

,称为恒等映射或者恒等自同态。

7.什么是基变换(Basis Change)?

基变换是指在一个向量空间内,由一组基向量变换为另一组基向量,因为在同一个向量空间中,一个点x在不同基底下的坐标不同。若两组基向量不在同一个向量空间中则不能直接进行基变换。一个向量乘以一个方阵说明这个向量在相同空间变换,如果乘以一个矩阵那么说明这个向量在不同空间变换。

8.什么是核(Kernel)和象(Image)?

保研线性代数复习3,线性代数,机器学习,人工智能

保研线性代数复习3,线性代数,机器学习,人工智能

9.什么是秩零化度定理(rank-nullity theorem)?

对于向量空间V和W,存在线性映射,那么dim(ker(φ))+dim(Im(φ))=dim(V)

10.什么是仿射变换(Affine mapping)?

仿射变换=线性变换+平移

对于两个向量空间V和W,存在线性映射,,那么称作保研线性代数复习3,线性代数,机器学习,人工智能为从向量空间V到向量空间W的仿射映射。文章来源地址https://www.toymoban.com/news/detail-849731.html

到了这里,关于保研线性代数复习3的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 线性代数与机器学习的紧密关系

    线性代数和机器学习之间的关系是非常紧密的。线性代数是一门数学分支,它研究的是如何解决系统中的线性方程组问题。机器学习则是一门跨学科的研究领域,它旨在让计算机程序能够从数据中自动发现模式、关系和规律,并利用这些发现来进行预测、分类和决策。 在过去

    2024年01月16日
    浏览(42)
  • 机器学习-线性代数-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月07日
    浏览(65)
  • 机器学习-线性代数-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月09日
    浏览(46)
  • 线性代数与机器学习之间的密切关系

    线性代数和机器学习是计算机科学和人工智能领域中的两个重要分支。线性代数是解决系统方程组和矩阵问题的数学基础,而机器学习则是利用数据来构建预测模型的算法。在过去的几年里,线性代数和机器学习之间的关系变得越来越密切,因为许多机器学习算法都依赖于线

    2024年04月13日
    浏览(33)
  • 机器学习-线性代数-3-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月11日
    浏览(46)
  • 机器学习-线性代数-2-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月15日
    浏览(43)
  • 机器学习-线性代数-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月06日
    浏览(61)
  • 机器学习-线性代数-4-解方程组

    对于如下方程组: a 11 x 1 + a 12 x 2 + . . . + a 1 n x n = b 1 a 21 x 1 + a 22 x 2 + . . . + a 2 n x n = b 2 . . . . a m 1 x 1 + a m 2 x 2 + . . . + a m n x n = b m a_{11}x_1 + a_{12}x_2 + ... + a_{1n}x_n = b1\\\\ a_{21}x_1 + a_{22}x_2 + ... + a_{2n}x_n = b2\\\\....\\\\a_{m1}x_1 + a_{m2}x_2 + ... + a_{mn}x_n = bm a 11 ​ x 1 ​ + a 12 ​ x 2 ​ + ... +

    2024年02月12日
    浏览(45)
  • 【机器学习】线性代数在机器学习中的三种常见应用

    线性代数在机器学习中有几个基础的使用案例,包括 data representation, dimensionality reduction and vector embedding (数据表示,降维和向量嵌入)。从介绍线性代数的基本概念开始,本文将构建一个如何将这些概念应用于数据表示的基本观点,例如解决线性方程系统,线性回归和神经网络

    2024年01月18日
    浏览(67)
  • 机器学习-线性代数-1-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月10日
    浏览(58)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包