矩阵求导常用公式

这篇具有很好参考价值的文章主要介绍了矩阵求导常用公式。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

1 引言

常见的求导有,标量对标量求导,向量对标量,矩阵对标量,标量对向量,向量对向量,标量对矩阵。求导的几种形式:
矩阵求导常用公式
字符标示:
A 大写粗体表示矩阵
a 小写粗体表示向量
a 小写粗体表示标量
tr(X) 表示迹,主对角线之和
det(X) or |X| 表示
字母表前面部分表示常量(如 a,b,c…),字母表后面部分表示变量(如 t,x,y,…)

2 向量的导数

2.1 向量对标量求导 Vector-by-scalar

y 向量为 y = [ y 1 y 2 ⋯ y m ] T {\displaystyle \mathbf {y} ={\begin{bmatrix}y_{1}&y_{2}&\cdots &y_{m}\end{bmatrix}}^{\mathsf {T}}} y=[y1y2ym]T, 对 x 求导,结果为列

∂ y ∂ x = [ ∂ y 1 ∂ x ∂ y 2 ∂ x ⋮ ∂ y m ∂ x ] {\displaystyle {\frac {\partial \mathbf {y} }{\partial x}}={\begin{bmatrix}{\frac {\partial y_{1}}{\partial x}}\\{\frac {\partial y_{2}}{\partial x}}\\\vdots \\{\frac {\partial y_{m}}{\partial x}}\\\end{bmatrix}}} xy=xy1xy2xym

2.2 标量对向量求导 Scalar-by-vector

y 为标量,对向量 x = [ x 1 x 2 ⋯ x n ] T {\displaystyle \mathbf {x} ={\begin{bmatrix}x_{1}&x_{2}&\cdots &x_{n}\end{bmatrix}}^{\mathsf {T}}} x=[x1x2xn]T 求导,结果为行
矩阵求导常用公式

2.3 向量对向量求导 Vector-by-vector

输出向量为 y = [ y 1 y 2 ⋯ y m ] T {\displaystyle \mathbf {y} ={\begin{bmatrix}y_{1}&y_{2}&\cdots &y_{m}\end{bmatrix}}^{\mathsf {T}}} y=[y1y2ym]T
输入向量为 x = [ x 1 x 2 ⋯ x n ] T {\displaystyle \mathbf {x} ={\begin{bmatrix}x_{1}&x_{2}&\cdots &x_{n}\end{bmatrix}}^{\mathsf {T}}} x=[x1x2xn]T
神经网络中全连接层的形式就是如此
矩阵求导常用公式
这种矩阵也称为雅各布矩阵

3 矩阵的导数

3.1 矩阵对标量求导 Matrix-by-scalar

矩阵求导常用公式

3.2 标量对矩阵求导 Scalar-by-matrix

矩阵求导常用公式

4 常用求导公式

字符标示:
a, b, c, d, and e 为常量, 标量 u, and v 由 x, x, or X中的一个计算而来;
a, b, c, d, and e 为常量向量, 向量 u, and v 由 x, x, or X中的一个计算而来;
A, B, B, D, and E 为常量矩阵, 向量 U, and V 由 x, x, or X中的一个计算而来;

4.1 向量对向量求导

矩阵求导常用公式

4.2 标量对向量求导

矩阵求导常用公式
矩阵求导常用公式

4.3 向量对标量求导

矩阵求导常用公式

4.4 标量对矩阵求导

矩阵求导常用公式
矩阵求导常用公式
矩阵求导常用公式

4.5 矩阵对标量求导

矩阵求导常用公式

4.6 标量对标量求导

矩阵求导常用公式

参考

Matrix calculus文章来源地址https://www.toymoban.com/news/detail-409891.html

到了这里,关于矩阵求导常用公式的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 张量、标量、向量和矩阵

    张量、标量、向量和矩阵 https://github.com/bovem/publications/tree/master/Linear%20Algebra 张量是一个数据数组(数字、函数等),它以任意数量(0 或更大)的维度展开。维数称为张量秩。 秩 0 张量 没有维度(0)的张量。 A 是 0 维张量 秩 1 张量 仅在一维中展开的张量。 一维张量示例 秩 2 张量

    2024年02月16日
    浏览(33)
  • 标量、向量、矩阵和张量的区别?

    标量、向量、矩阵和张量是数学和物理学中常用的概念,它们在多维数据表示和处理中扮演着关键角色。下面是这些概念的基本区别: 标量(Scalar): -标量是单个数字,用于表示单一的量。 -它没有方向。 -在数学中,标量通常指实数或复数。 向量(Vector): -向量是一系列数

    2024年01月22日
    浏览(44)
  • 标量、向量、矩阵、张量之间的区别和联系

    标量 标量(scalar):一个标量就是一个单独的数(整数或实数),不同于线性代数中研究的其他大部分对象(通常是多个数的数组)。标量通常用斜体的小写字母来表示,例如:x mathit xx,标量就相当于Python中定义的 x = 1 向量 向量(vector):一个向量表示一组有序排列的数,通过次序

    2024年02月08日
    浏览(36)
  • 【线性代数】矩阵求导的本质与分子布局、分母布局的本质(矩阵求导——本质篇)

    我将严谨地说明矩阵求导的本质与分子布局、分母布局的本质。希望对初学的同学、想理解本质的同学提供一些帮助。 注1 :看懂本文只需了解本科阶段高等数学的偏导如何求、本科阶段线性代数的矩阵的定义,无需任何其他知识。 注2 :本文若无特殊说明,则约定向量均为列

    2024年02月10日
    浏览(39)
  • 【矩阵论】3. 矩阵函数——矩阵函数求导

    矩阵论的所有文章,主要内容参考北航赵迪老师的课件 [注]由于矩阵论对计算机比较重要,所以选修了这门课,但不是专业搞数学的,所以存在很多口语化描述,而且对很多东西理解不是很正确与透彻,欢迎大家指正。我可能间歇性忙,但有空一定会回复修改的。 矩阵论 1

    2024年02月02日
    浏览(30)
  • 一文读懂标量、向量、矩阵、张量的关系

    参考文章: 跳转 标量只有大小概念,没有方向的概念。通过一个具体的数值就能表达完整。 比如:重量、温度、长度、提及、时间、热量等都数据标量。 百度百科版本: 标量(scalar),亦称“无向量”。有些物理量,只具有数值大小,而没有方向,部分有正负之分。物理

    2023年04月08日
    浏览(41)
  • 深度学习标量、向量、矩阵、张量之间的区别与联系

    前言 深度学习 的表现之所以能够超过传统的机器学习算法离不开神经网络,然而神经网络最基本的数据结构就是 向量 和 矩阵 , 神经网络 的输入是向量,然后通过每个矩阵对向量进行线性变换,再经过激活函数的非线性变换,通过层层计算最终使得 损失函数的最小化 ,完

    2024年02月16日
    浏览(34)
  • MATLAB矩阵的加法和减法、MATLAB除法、标量操作

    MATLAB矩阵的加法和减法 MATLAB矩阵可以有加法和减法的操作,但是两个操作数的矩阵必须具有相同的行数和列数。 在MATLAB中建立一个脚本文件,代码如下: 运行该文件,显示结果: MATLAB 中有两种矩阵除法符号:即左除“\” 和右除 “/” 。 注意 :这两个操作数的矩阵必须

    2024年01月24日
    浏览(52)
  • 张量(Tensor)、标量(scalar)、向量(vector)、矩阵(matrix)

    张量(Tensor)、标量(scalar)、向量(vector)、矩阵(matrix) Python Numpy 切片和索引(高级索引、布尔索引、花式索引) Python NumPy 广播(Broadcast) 张量(Tensor) :Tensor = multi-dimensional array of numbers 张量是一个多维数组,它是标量,向量,矩阵的高维扩展 ,是一个数据容器,张

    2024年02月03日
    浏览(38)
  • 基于矩阵求导的线性回归

    矩阵求导 考虑矩阵乘法 A ⋅ B = C A cdot B = C A ⋅ B = C 考虑Loss函数 L = ∑ i m ∑ j n ( C i j − p ) 2 L = sum^m_{i}sum^n_{j}{(C_{ij} - p)^2} L = i ∑ m ​ j ∑ n ​ ( C ij ​ − p ) 2 考虑C的每一项导数 ▽ C i j = ∂ L ∂ C i j triangledown C_{ij} = frac{partial L}{partial C_{ij}} ▽ C ij ​ = ∂ C ij ​ ∂ L

    2023年04月20日
    浏览(35)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包