深度学习笔记之线性代数

这篇具有很好参考价值的文章主要介绍了深度学习笔记之线性代数。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

深度学习笔记之线性代数

一、向量

在数学表示法中,向量通常记为粗体小写的符号(例如,xyz)当向量表示数据集中的样本时,它们的值具有一定的现实意义。例如研究医院患者可能面临的心脏病发作风险,用一个向量表示一个患者,其分量为最近的生命特征、胆固醇水平、每天运动时间等。
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
可以使用下标来引用向量的任意元素
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
使用切片访问
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
向量只是一个数字数组,就像每个数组都有一个长度,向量的长度通常称为向量的维度(dimension)
可以通过调用Python的内置len()函数来访问张量的长度
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

当张量表示一个向量时,可以通过.shape属性访问向量的长度。对于只有一个轴的张量,形状只有一个元素。
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

二、矩阵

矩阵将向量从一阶推广到二阶。通常用粗体大写字母表示矩阵(例如X,Y,Z),在代码中表示具有两个轴的张量。

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
索引访问
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
求矩阵的转置
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
判断一个矩阵是否为对称矩阵。即这个矩阵是否等于它的转置矩阵。

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

三、张量算法的基本性质

两个形状相同的矩阵相加,会在这两个矩阵上执行元素加法
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
两个矩阵按元素乘法成为Hadamard积
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
将张量乘以或加上一个标量不会改变张量的形状,其中张量的每个元素都与标量相加或相乘

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

四、降维

计算向量中元素的和
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

为了通过求和所有行元素来降维,可以在调用函数时制定axis=0
也可以指定axis=1将通过汇总所有列的元素降维
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
沿着行和列对矩阵求和,等价于对矩阵的所有元素进行求和
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

计算任意形状张量的平均值
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

五、非降维求和

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

如果我们想沿某个轴计算A元素的累积总和, 比如axis=0(按行计算),可以调用cumsum函数。 此函数不会沿任何轴降低输入张量的维度。

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

六、点积

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

七、矩阵-向量积

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

八、矩阵-矩阵乘法

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数

九、范数

深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数
深度学习笔记之线性代数,Python学习记录,机器学习,深度学习,笔记,线性代数文章来源地址https://www.toymoban.com/news/detail-713091.html

到了这里,关于深度学习笔记之线性代数的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 动手学深度学习4 线性代数

    视频 :https://www.bilibili.com/video/BV1eK4y1U7Qy/?spm_id_from=autoNextvd_source=eb04c9a33e87ceba9c9a2e5f09752ef8 课件 :https://courses.d2l.ai/zh-v2/assets/pdfs/part-0_5.pdf 本节主要是介绍线性代数中 向量 矩阵的一些定义及计算规则。 1. 简单操作 一些简单的数学公式。 c = a + b c = a · b c = sin a 2. 标量的长度

    2024年02月01日
    浏览(46)
  • 深度学习-必备的数学知识-线性代数6

    线性代数 通过伪逆求解线性方程组 伪逆,又称为Moore-Penrose逆,它是一种广义的矩阵。我们可以找到任意一个矩阵的伪逆。矩阵 A mathbf{A} A 的伪逆定义为: A + = lim ⁡ x → 0 ( A T A + α I ) − 1 A T mathbf{A}^+=lim_{x to 0}(mathbf{A}^Tmathbf{A}+alphamathbf{I})^{-1}mathbf{A}^T A + = x → 0 lim ​

    2024年01月18日
    浏览(59)
  • 深度学习-必备的数学知识-线性代数(合集)

    为方便大家阅读,这里推出一个线性代数的合集。这与之前的内容是一致的。 我们在深度学习-简介和 深度学习-历史背景中已经初步了解的深度学习。在我们开始学习深度学习前还需要做些准备工作。就是学习应用数学和机器学习基础。 想要理解深度学习这些是必不可少的

    2024年02月03日
    浏览(58)
  • 深度学习-必备的数学知识-线性代数-1

    我们在深度学习-简介和 深度学习-历史背景中已经初步了解的深度学习。在我们真正开始学习深度学习前还需要做些准备工作。那就是学习应用数学和机器学习基础。想要理解深度学习这些是必不可少的。 我将在这篇文章中为大家介绍一部分与深度学习有关的线性代数。 我

    2024年02月05日
    浏览(51)
  • 深度学习-必备的数学知识-线性代数5

    线性代数 在数学中,分解通常指的是将一个复杂的对象或结构分解为更简单的部件或组件。这个概念在许多数学领域都有应用。在线性代数中,矩阵分解是常见的一个主题,我们通过分解矩阵来发现它不明显的性质。 矩阵有许多种的分解方式:LU分解、QR分解、特征分解、奇

    2024年02月02日
    浏览(72)
  • 深度学习基础知识(三)-线性代数的实现

    1.标量使用 标量由只有一个元素的张量表示,标量可以做最简单的计算。 结果: 2.向量使用 向量:将标量值组成的列表就是向量 结果: 访问张量的长度 只有一个轴的张量,形状只有一个元素 创建一个二维矩阵5行4列,然后将矩阵做转置,轴对称的一个转置 结果:其实就是把

    2024年02月10日
    浏览(60)
  • 线性代数:齐次线性方程组学习笔记

    齐次线性方程组是指所有方程的常数项均为零的线性方程组,即形如 A x = 0 Ax=0 A x = 0 的方程组。 其中,矩阵 A A A 是一个 m × n m times n m × n 的矩阵,向量 x x x 是一个 n n n 维列向量, 0 mathbf{0} 0 是一个 m m m 维零向量。 齐次线性方程组有以下性质: 1. 性质1 齐次线性方程组的

    2024年01月20日
    浏览(51)
  • 深度学习的数学基础:从线性代数到随机过程

    深度学习是人工智能领域的一个重要分支,它主要通过模拟人类大脑中的神经网络来进行数据处理和学习。深度学习的核心技术是神经网络,神经网络由多个节点组成,这些节点之间有权重和偏置的连接。通过对这些节点进行训练,我们可以使神经网络具有学习和推理的能力

    2024年03月18日
    浏览(92)
  • 线性代数:正交变换学习笔记

    在线性代数中,如果一个矩阵 A A A 满足 A T A = A A T = I A^T A = A A^T = I A T A = A A T = I ,则称其为正交矩阵。正交矩阵也常被称为正交变换。 正交变换是线性变换的一种特殊形式,它不改变向量的长度和夹角。因此,它可以用来描述旋转、镜像等几何变换。 正交矩阵有以下性质:

    2024年02月03日
    浏览(58)
  • 线性代数:增广矩阵学习笔记

    定义 对于一个 n × m ntimes m n × m 的矩阵 A = [ a i j ] A=[a_{ij}] A = [ a ij ​ ] ,我们可以在它的右边加上一个 n × 1 ntimes1 n × 1 的列向量 b b b ,得到一个 n × ( m + 1 ) ntimes(m+1) n × ( m + 1 ) 的矩阵 [ A ∣ b ] begin{bmatrix} A bigl| bend{bmatrix} [ A ​ ​ ​ b ​ ] ,这个矩阵被称为 A A A 的

    2024年02月05日
    浏览(62)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包