深度学习-必备的数学知识-线性代数6

这篇具有很好参考价值的文章主要介绍了深度学习-必备的数学知识-线性代数6。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

深度学习

必备的数学知识

线性代数

通过伪逆求解线性方程组

伪逆,又称为Moore-Penrose逆,它是一种广义的矩阵。我们可以找到任意一个矩阵的伪逆。矩阵 A \mathbf{A} A的伪逆定义为:
A + = lim ⁡ x → 0 ( A T A + α I ) − 1 A T \mathbf{A}^+=\lim_{x \to 0}(\mathbf{A}^T\mathbf{A}+\alpha\mathbf{I})^{-1}\mathbf{A}^T A+=x0lim(ATA+αI)1AT
这个公式被称为Tikhonov正则化,或岭回归。计算矩阵伪逆的方法很多, 这是其中的一种。我们还可以通过奇异值(SVD)计算伪逆。
A + = V D + U T \mathbf{A}^+=\mathbf{V}\mathbf{D}^+\mathbf{U}^T A+=VD+UT
其中 V D U \mathbf{V} \mathbf{D} \mathbf{U} VDU分别对应于奇异值分解中的三个矩阵。

  • V \mathbf{V} V是右奇异向量组成的矩阵
  • D + \mathbf{D}^+ D+ D \mathbf{D} D的伪逆,是一个以奇异值为对角元素的对角矩阵。对角矩阵的伪逆是通过取原矩阵的对角线上元素的倒数得到的
  • U \mathbf{U} U是左奇异向量组成的矩阵

对于一个 m × n m \times n m×n的矩阵 A \mathbf{A} A,其伪逆 A + \mathbf{A}^+ A+是一个 n × m n \times m n×m的矩阵, A + \mathbf{A}^+ A+满足以下四个条件:

  1. A A + A = A \mathbf{A}\mathbf{A}^+\mathbf{A}=\mathbf{A} AA+A=A
  2. A + A A + = A + \mathbf{A}^+\mathbf{A}\mathbf{A}^+=\mathbf{A}^+ A+AA+=A+
  3. ( A + A ) T = A + A (\mathbf{A}^+\mathbf{A})^T=\mathbf{A}^+\mathbf{A} (A+A)T=A+A
  4. ( A A + ) T = A A + (\mathbf{A}\mathbf{A}^+)^T=\mathbf{A}\mathbf{A}^+ (AA+)T=AA+

在求解线性方程 A x = y \mathbf{A}\mathbf{x}=\mathbf{y} Ax=y时,如果 A \mathbf{A} A是可逆的,那么我们可以通过
x = A − 1 b \mathbf{x}=\mathbf{A}^{-1}\mathbf{b} x=A1b
来求解,但是并不是每一个矩阵都存在逆矩阵。对于不可以使用矩阵逆求解的方程,我们可以使用伪逆进行求解。
伪逆的一个重要性质是 A A + A = A \mathbf{A}\mathbf{A}^+\mathbf{A}=\mathbf{A} AA+A=A
所以
A x = b A A + A x = A A + b A x = A A + b x = A + b \mathbf{A}\mathbf{x}=\mathbf{b}\\ \mathbf{A}\mathbf{A}^+\mathbf{A}\mathbf{x}=\mathbf{A}\mathbf{A}^+\mathbf{b}\\ \mathbf{A}\mathbf{x}=\mathbf{A}\mathbf{A}^+\mathbf{b}\\ \mathbf{x}=\mathbf{A}^+\mathbf{b} Ax=bAA+Ax=AA+bAx=AA+bx=A+b
x = A + b \mathbf{x}=\mathbf{A}^+\mathbf{b} x=A+b的解是满足 ∣ ∣ A x − b ∣ ∣ 2 ||\mathbf{A}\mathbf{x}-\mathbf{b}||_2 ∣∣Axb2最小的解,换句话说 x = A + b \mathbf{x}=\mathbf{A}^+\mathbf{b} x=A+b的解是方程所有可行性解中欧几里得距离 ∣ ∣ x ∣ ∣ 2 ||x||_2 ∣∣x2最小的一个

迹运算

迹运算是线性代数中的一种运算, 它对应的是一个方程所有主对角线元素的和:
T r ( A ) = ∑ i A i , i Tr({\mathbf{A}})=\sum_{i}A_{i,i} Tr(A)=iAi,i
迹运算有着很多重要的性质。
对于任意方阵 A \mathbf{A} A B \mathbf{B} B
T r ( A + B ) = T r ( A ) + T r ( B ) Tr(\mathbf{A}+\mathbf{B})=Tr(\mathbf{A})+Tr(\mathbf{B}) Tr(A+B)=Tr(A)+Tr(B)
对于任意方阵 A \mathbf{A} A和标量c
T r ( c A ) = c T r ( A ) Tr(\mathbf{c\mathbf{A}})=cTr(\mathbf{A}) Tr(cA)=cTr(A)
标量的迹运算结果仍然是它自身
T r ( a ) = a Tr(a)=a Tr(a)=a
矩阵的迹运算结果等同于矩阵逆的迹运算结果
T r ( A ) = T r ( A T ) Tr(\mathbf{A})=Tr(\mathbf{A}^T) Tr(A)=Tr(AT)
对一组矩阵乘积进行迹运算得到的迹与将这组矩阵的最后一个移至最前面之后相乘的迹是相同(要保证在移动后,矩阵乘积仍然成立)
T r ( A B . . N ) = T r ( N A B . . ) Tr(\mathbf{A}\mathbf{B}..\mathbf{N})=Tr(\mathbf{N}\mathbf{A}\mathbf{B}..) Tr(AB..N)=Tr(NAB..)
更一般的
T r ( ∏ i = 1 n F ( i ) ) = T r ( F ( n ) ∏ i = 1 n − 1 F ( i ) ) Tr(\prod_{i=1}^{n}\mathbf{F}^{(i)})=Tr(\mathbf{F}^{(n)}\prod_{i=1}^{n-1}\mathbf{F}^{(i)}) Tr(i=1nF(i))=Tr(F(n)i=1n1F(i))
迹运算还提供了描述矩阵Frobenius范式的方式:
∣ ∣ A ∣ ∣ F = T r ( A A T ) ||A||_{F}=\sqrt{Tr(\mathbf{A}\mathbf{A}^T)} ∣∣AF=Tr(AAT)

行列式

矩阵特征值的乘积称为行列式,记作 d e t ( A ) det(A) det(A) ∣ A ∣ |\mathbf{A}| A
行列式有着许多重要的性质和应用:

  • 行列式可以帮助我们判断一个矩阵是否可逆,如果一个矩阵的行列式为0,那么这个矩阵是不可逆的,如果一个矩阵的行列式不为0,那么这个矩阵是可逆的
  • 行列式可以用来计算一个矩阵的伪逆
  • 等等

如有问题 恳请指正
持续更新中…文章来源地址https://www.toymoban.com/news/detail-799980.html

到了这里,关于深度学习-必备的数学知识-线性代数6的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习的数学基础:从线性代数到随机过程

    深度学习是人工智能领域的一个重要分支,它主要通过模拟人类大脑中的神经网络来进行数据处理和学习。深度学习的核心技术是神经网络,神经网络由多个节点组成,这些节点之间有权重和偏置的连接。通过对这些节点进行训练,我们可以使神经网络具有学习和推理的能力

    2024年03月18日
    浏览(76)
  • 深度学习基础知识(三)-线性代数的实现

    1.标量使用 标量由只有一个元素的张量表示,标量可以做最简单的计算。 结果: 2.向量使用 向量:将标量值组成的列表就是向量 结果: 访问张量的长度 只有一个轴的张量,形状只有一个元素 创建一个二维矩阵5行4列,然后将矩阵做转置,轴对称的一个转置 结果:其实就是把

    2024年02月10日
    浏览(40)
  • 李沐 《动手学深度学习》预备知识 线性代数与微积分

    李沐《动手学深度学习》预备知识 张量操作与数据处理 教材:李沐《动手学深度学习》 标量(scalar) 仅包含一个数值被称为标量,标量由只有一个元素的张量表示。 向量 向量可以被视为标量值组成的列表,向量由一维张量表示。一般来说,张量可以具有任意长度,取决于

    2024年01月20日
    浏览(51)
  • <2>【深度学习 × PyTorch】pandas | 数据预处理 | 处理缺失值:插值法 | networkx模块绘制知识图谱 | 线性代数初步

      你永远不可能真正的去了解一个人,除非你穿过ta的鞋子,走过ta走过的路,站在ta的角度思考问题,可当你真正走过ta走过的路时,你连路过都会觉得难过。有时候你所看到的,并非事实真相,你了解的,不过是浮在水面上的冰山一角。—————《杀死一只知更鸟》   🎯

    2024年02月01日
    浏览(35)
  • 线性代数 | 机器学习数学基础

    前言 线性代数 (linear algebra)是关于向量空间和线性映射的一个数学分支。它包括对线、面和子空间的研究,同时也涉及到所有的向量空间的一般性质。 本文主要介绍 机器学习 中所用到的线性代数 核心基础概念 ,供读者学习阶段查漏补缺或是 快速学习参考 。 线性代数

    2024年01月21日
    浏览(51)
  • 陶哲轩必备助手之人工智能数学验证+定理发明工具LEAN4 [线性代数篇2]矩阵乘积的行列式变形(上篇)

    视频链接: 陶哲轩必备助手之人工智能数学验证+定理发明工具LEAN4 [线性代数篇2]矩阵乘积的行列式变形(上篇)_哔哩哔哩_bilibili import Mathlib.LinearAlgebra.Matrix.Determinant import Mathlib.GroupTheory.Perm.Fin import Mathlib.GroupTheory.Perm.Sign import Mathlib.Data.Real.Sqrt import Mathlib.Data.List.Perm -- 本文

    2024年02月03日
    浏览(31)
  • 陶哲轩必备助手之人工智能数学验证+定理发明工具LEAN4 [线性代数篇2]矩阵乘积的行列式变形(下篇)

    视频链接,求个赞哦: 陶哲轩必备助手之人工智能数学验证+定理发明工具LEAN4 [线性代数篇2]矩阵乘积的行列式变形(下篇)_哔哩哔哩_bilibili import Mathlib.LinearAlgebra.Matrix.Determinant import Mathlib.GroupTheory.Perm.Fin import Mathlib.GroupTheory.Perm.Sign import Mathlib.Data.Real.Sqrt import Mathlib.Data.Li

    2024年01月23日
    浏览(37)
  • 深度学习笔记之线性代数

    一、向量 在数学表示法中,向量通常记为粗体小写的符号(例如, x , y , z )当向量表示数据集中的样本时,它们的值具有一定的现实意义。例如研究医院患者可能面临的心脏病发作风险,用一个向量表示一个患者,其分量为最近的生命特征、胆固醇水平、每天运动时间等

    2024年02月08日
    浏览(35)
  • 【学习笔记】(数学)线性代数-矩阵的概念和特殊矩阵

    由 m × n mtimes n m × n 个数按一定的次序排成的 m m m 行 n n n 列的矩形数表成为 m × n mtimes n m × n 的矩阵,简称 矩阵 (matrix)。 横的各排称为矩阵的 行 ,竖的各列称为矩阵的 列 。 元素为实数的称为 实矩阵 ,一般情况下我们所讨论的矩阵均为实矩阵。 1 行 n n n 列的矩阵称为

    2024年02月09日
    浏览(33)
  • 动手学深度学习4 线性代数

    视频 :https://www.bilibili.com/video/BV1eK4y1U7Qy/?spm_id_from=autoNextvd_source=eb04c9a33e87ceba9c9a2e5f09752ef8 课件 :https://courses.d2l.ai/zh-v2/assets/pdfs/part-0_5.pdf 本节主要是介绍线性代数中 向量 矩阵的一些定义及计算规则。 1. 简单操作 一些简单的数学公式。 c = a + b c = a · b c = sin a 2. 标量的长度

    2024年02月01日
    浏览(30)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包