线性代数 - 几何原理

这篇具有很好参考价值的文章主要介绍了线性代数 - 几何原理。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染



序言

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

欢迎阅读这篇关于线性代数的文章。在这里,我们将从一个全新的角度去探索线性代数,不再仅仅局限于数值计算,而是深入理解其背后的几何原理。我们将一起探讨向量、线性变换、矩阵、行列式、点乘、叉乘、基向量等核心概念,以及它们如何在实际问题中发挥作用。无论你是初学者,还是想要复习和加深理解,这篇文章都将为你提供清晰、深入的解析。让我们一起打开线性代数的神秘面纱,探索其丰富而美妙而美妙的世界。

向量的定义

  • 物理学:长度决定标量,加上方向决定矢量
  • 计算机:有序的数字序列,如数组
  • 数学:结合二者的概念,向量是空间中以原点为起点有方向并且有序的数字列表

线性组合、张成空间与向量基

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 向量 i j 是 xy坐标系的基向量,是张成该空间的一个线性无关的向量集

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 选取不同的基向量,它全部线性组合构成的向量集合被称为“张成的空间”

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 三维向量的张成空间

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 线性相关:一组向量至少有一个是多余的,没有对张成空间做出任何贡献
  • 线性无关:对张成空间有贡献,增加维度

线性变换和矩阵

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染
定义:保持网格线平行并且等距分布的变换

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 可以根据线性变化后的基向量进行计算,关系根据原有的坐标值

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 矩阵的列看作变换后的基向量,矩阵向量乘法看作他们的线性组合,是对几何空间的一种线性变换

线性复合变换与矩阵乘法

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 本质上还是计算基向量的最终变化

三维空间的线性变换

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 和二维的本质一样,只是多了一个维度罢了

行列式

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 线性变换会挤压伸缩空间,行列式就是计算给定区域相对于基向量面积增大或减小的比例

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 行列式为负说明坐标系定向空间翻转了

矩阵的秩和逆矩阵

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 秩代表变换空间后的维度,线性相关会减少维度
  • 行列式不为0, 还原变换后的基向量到原本定义的时候

维度变换

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

点乘

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染
线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 向量u是一维空间的基向量,我们要计算二维空间的基向量经过什么线性变换到达一维空间的矩阵

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 点乘就是将其中一个向量转换为线性变换的过程
  • 向量点乘可以判断两个向量的方向如何,是否垂直

叉乘

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 这里的几何概念有点没懂

基变换

  • 两种坐标系如何转换,一种是自定义的基向量 i j,另一种是变换的基向量,后面假设叫珍妮弗的坐标系

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 这张就是用基本的坐标系表达珍妮弗的坐标系
  • 用我们的标准表达出基向量,然后进行计算

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 先变成珍妮弗的坐标,然后进行翻转,最后用珍妮弗的坐标规范定义我们的坐标格式

特征值和特征向量

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 向量(特征向量)在进行线性变换时,没有离开它所在的张成空间,只是缩放了一定倍数(特征值 )

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 空间维度就是经过(A - I)变换后,会落在零空间。这就要求维度必须降维,行列式为0
  • 特殊情况:基向量默认是特征向量

抽象向量空间

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

线性代数 - 几何原理,线性代数,机器学习,决策树,人工智能,图形渲染

  • 向量可以是任何的事物,只需要满足线性的严格定义和数学家规范的准则就行了

任何具有普适性的理论都会变得抽象文章来源地址https://www.toymoban.com/news/detail-752088.html

到了这里,关于线性代数 - 几何原理的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 简单的线性代数与几何

    最后编辑于 2024-01-04 本文中所有作为下标的代数均为正整数 存储 向量是表示方向的量, 在不同维度的下向量的数据长度有所不同; 记录时以轴的顺序记录在不同轴上的坐标 : { x(第0轴的坐标) , y(第1轴的坐标), z(第2轴的坐标)…} 代码中使用数值的指针并携带长度属性代替大部

    2024年02月02日
    浏览(35)
  • 线性代数 | 机器学习数学基础

    前言 线性代数 (linear algebra)是关于向量空间和线性映射的一个数学分支。它包括对线、面和子空间的研究,同时也涉及到所有的向量空间的一般性质。 本文主要介绍 机器学习 中所用到的线性代数 核心基础概念 ,供读者学习阶段查漏补缺或是 快速学习参考 。 线性代数

    2024年01月21日
    浏览(53)
  • 线性代数的本质——几何角度理解

    B站网课来自 3Blue1Brown的翻译版,看完醍醐灌顶,强烈推荐: 线性代数的本质 本课程从几何的角度翻译了线代中各种核心的概念及性质,对做题和练习效果有实质性的提高,下面博主来总结一下自己的理解 在物理中的理解是一个有 起点和终点的方向矢量 ,而在计算机科学中

    2024年02月02日
    浏览(53)
  • 线性代数与机器学习的紧密关系

    线性代数和机器学习之间的关系是非常紧密的。线性代数是一门数学分支,它研究的是如何解决系统中的线性方程组问题。机器学习则是一门跨学科的研究领域,它旨在让计算机程序能够从数据中自动发现模式、关系和规律,并利用这些发现来进行预测、分类和决策。 在过去

    2024年01月16日
    浏览(30)
  • 机器学习-线性代数-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月07日
    浏览(50)
  • 线性代数行列式的几何含义

    行列式可以看做是一系列列向量的排列,并且每个列向量的分量可以理解为其对应标准正交基下的坐标。 行列式有非常直观的几何意义,例如: 二维行列式按列向量排列依次是 a mathbf{a} a 和 b mathbf{b} b ,可以表示 a mathbf{a} a 和 b mathbf{b} b 构成的平行四边形的面积 ∣ a b ∣

    2024年02月11日
    浏览(36)
  • 机器学习-线性代数-2-矩阵与空间映射

    一个 m × n m times n m × n 的大小矩阵,直观上看是 m × n m times n m × n 的数字按矩阵排列。 从向量的角度看,看做是 n n n 个 m m m 维列向量从左到右的排列,也可以看做 m m m 个 n n n 维行向量从上到下的叠放。 方阵:行数等于列数 对称矩阵:原矩阵与其转置矩阵相等: A = A

    2024年02月15日
    浏览(31)
  • 机器学习-线性代数-向量、基底及向量空间

    理解 直观理解 行向量:把数字排成一行A = [ 4   5 ] [4~ 5] [ 4   5 ] 列向量:把数字排成一列A =   [ 4 5 ] left [ begin{matrix} 4 \\\\ 5 \\\\ end{matrix} right ]   [ 4 5 ​ ] 几何意义 默认在基底条件下(直角坐标系)中的坐标表示的一个点,也可以理解以原点为起点,到目标终点A的有向线段

    2024年02月06日
    浏览(47)
  • 机器学习-线性代数-逆映射与向量空间

    矩阵的本质是映射。对于一个 m × n m × n m × n 的矩阵,乘法 y = A x y = Ax y = A x 的作用就是将向量从 n n n 维原空间中的 x x x 坐标位置,映射到 m m m 维目标空间的 y y y 坐标位置,这是正向映射的过程。那么,如果已知结果向量的坐标 y y y 去反推原向量的坐标 x x x ,这个过程就

    2024年02月09日
    浏览(39)
  • 机器学习-线性代数-4-解方程组

    对于如下方程组: a 11 x 1 + a 12 x 2 + . . . + a 1 n x n = b 1 a 21 x 1 + a 22 x 2 + . . . + a 2 n x n = b 2 . . . . a m 1 x 1 + a m 2 x 2 + . . . + a m n x n = b m a_{11}x_1 + a_{12}x_2 + ... + a_{1n}x_n = b1\\\\ a_{21}x_1 + a_{22}x_2 + ... + a_{2n}x_n = b2\\\\....\\\\a_{m1}x_1 + a_{m2}x_2 + ... + a_{mn}x_n = bm a 11 ​ x 1 ​ + a 12 ​ x 2 ​ + ... +

    2024年02月12日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包