MSE 均方误差及其梯度

这篇具有很好参考价值的文章主要介绍了MSE 均方误差及其梯度。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

MSE 均方误差及其梯度

mse 表达式

M S E = 1 n ∑ i = 0 n ( y i − o i ) 2 MSE= \frac{1}{n} \sum_{i=0}^{n} (y^{i}-o^{i})^2 MSE=n1i=0n(yioi)2
其中n为输出节点数,真值为 y , 模型输出为 o

mse 对 第 j 个 o 求偏导

∂ M S E ∂ o j = 1 n ∑ i = 0 n ∂ ( y i − o i ) 2 ∂ o j \frac{\partial MSE}{\partial o^j} = \frac{1}{n} \sum_{i=0}^{n} \frac{\partial (y^{i}-o^{i})^2}{\partial o^j} ojMSE=n1i=0noj(yioi)2
∂ M S E ∂ o j = 2 n ∑ i = 0 n ( y i − o i ) ∂ ( y i − o i ) ∂ o j \frac{\partial MSE}{\partial o^j} = \frac{2}{n} \sum_{i=0}^{n} (y^{i}-o^{i})\frac{\partial (y^{i}-o^{i})}{\partial o^j} ojMSE=n2i=0n(yioi)oj(yioi)
∂ M S E ∂ o j = 2 n ∑ i = 0 n ( y i − o i ) ( − 1 ) ∂ ( o i ) ∂ o j \frac{\partial MSE}{\partial o^j} = \frac{2}{n} \sum_{i=0}^{n} (y^{i}-o^{i})(-1)\frac{\partial (o^{i})}{\partial o^j} ojMSE=n2i=0n(yioi)(1)oj(oi)

考虑到 ∂ ( o i ) ∂ o j \frac{\partial (o^{i})}{\partial o^j} oj(oi)
仅当j = i 时才为 1,其它点都为 0,也就是说, 偏导数只与第j号节点相关,与其它节点无关, 因此上式中的求和符号可以去掉。 均方误差函数的导数可以推导为:
∂ M S E ∂ o j = 2 n ( o i − y i ) \frac{\partial MSE}{\partial o^j} = \frac{2}{n} (o^{i} - y^{i}) ojMSE=n2(oiyi)文章来源地址https://www.toymoban.com/news/detail-440210.html

到了这里,关于MSE 均方误差及其梯度的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 方差、标准差、均方差、均方根值(RMS)、均方根误差(RMSE)

    方差反映的是每个样本值与全体样本值的平均数之差的平方值的平均数。衡量随机变量或者一组数据与其期望的偏离程度。偏离程度越小,说明X的数值越稳定。也就是偏离平均数的距离的平均数,注意不是有效值( RMS )。计算公式如下: 它的数学含义为: 标准差(Standard

    2024年02月15日
    浏览(26)
  • 基于最小均方误差linear minimum mean square error(LMMSE)插值算法的图像超分辨重构研究-附Matlab代码

    图像是一种表达信息的形式,其中,数字图像反馈的信息更加丰富。 在获取图像的过程中,图像的形成、传输、存储、处理过程受到外界干扰或成像设备自身的局限等多种因素,导致获取的图像质量不高,使图像分辨率下降,这种情况称为降质或退化,具体表现为图像模糊、

    2023年04月14日
    浏览(34)
  • 1. 简明误差卡尔曼滤波器(ESKF)及其推导过程

    本文主要介绍一种特殊正交群 SO(3) text{SO(3)} SO(3) 上的 ESKF(Error State Kalman Filter, 误差卡尔曼滤波器) (有时也叫做 流形上的ESKF )推导过程。 在现代的大多数 IMU 系统中,人们往往使用 误差状态卡尔曼滤波器(Error State Kalman Filter, ESKF) ,而非 原始状态的卡尔曼滤波器 。大部

    2024年02月06日
    浏览(43)
  • 机器学习&&深度学习——随机梯度下降算法(及其优化)

    在我们没有办法得到解析解的时候,我们可以用过梯度下降来进行优化,这种方法几乎可以所有深度学习模型。 关于优化的东西,我自己曾经研究过智能排班算法和优化,所以关于如何找局部最小值,以及如何跳出局部最小值的一些基本思想是有感触的,随机梯度算法和其优

    2024年02月15日
    浏览(33)
  • 一阶方向导数与梯度和方向向量的关系及其应用

       一、基本概念    1、方向导数(Directional derivative)    方向导数是指在给定点沿着某个方向的导数,表示函数在该方向上的变化率。 具体而言,对于一个向量场 f ( x , y , z ) f(x,y,z) f ( x , y , z ) 和一个单位向量 u = ( u 1 , u 2 , u 3 ) mathbf{u}=(u_1,u_2,u_3) u = ( u 1 ​ , u 2 ​

    2023年04月08日
    浏览(31)
  • 【学习经验分享NO.16】超全代码-python画Sigmoid,ReLU,Tanh等十多种激活函数曲线及其梯度曲线(持续更新)

    激活函数是一种特殊的非线性函数,它能够在神经网络中使用,其作用是将输入信号转化成输出信号。它将神经元中的输入信号转换为一个有意义的输出,从而使得神经网络能够学习和识别复杂的模式。常用的激活函数有 Sigmoid、ReLU、Leaky ReLU 和 ELU 等。大论文理论部分需要介

    2023年04月08日
    浏览(42)
  • 最小均方混音方法

    一、简介: 一种利用数字信号处理技术实现的混音方法,它可以将多路信号混合成一个信号,并最小化混合信号与原始信号的误差平方和。该方法可以用于音频信号、图像信号等多种信号处理场景。 二、原理: 利用线性代数中的矩阵分解和最小二乘法。假设有m个信号源,每

    2023年04月08日
    浏览(26)
  • 传统语音增强——最小均方(LMS)自适应滤波算法

    一、语音降噪的意义 语音降噪主要研究如何利用信号处理技术消除信号中的强噪声干扰,从而提高输出信噪比以提取出有用信号的技术。消除信号中噪声污染的通常方法是让受污染的信号通过一个能抑制噪声而让信号相对不变的滤波器,此滤波器从信号不可检测的噪声场中取

    2024年02月03日
    浏览(32)
  • 逻辑回归为什么使用交叉熵而不用均方差?

    逻辑回归为什么使用交叉熵而不用均方差?或者说逻辑回归的损失函数为什么不用最小二乘? 下面主要从两个角度进行阐述: 从逻辑回归的角度出发,逻辑回归的预测值是一个概率,而交叉熵又表示真实概率分布与预测概率分布的相似程度,因此选择使用交叉熵 从均方差

    2024年02月21日
    浏览(42)
  • Llama 美洲鸵(大羊驼)改进之一:均方层归一化RMSNorm

    Layer Normalization (LayerNorm) Root Mean Square Layer Normalization (RMSNorm) 原理 对特征张量按照某一维度或某几个维度进行0均值,1方差的归一化 操作 LayerNorm 是一种标准化方法,它计算一个样本的均值和方差,然后使用这些来对样本进行归一化。这种方法是独立于批量大小的,使得模型更

    2024年02月12日
    浏览(27)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包