深度学习中常用的损失函数(一) —— MSELoss()

这篇具有很好参考价值的文章主要介绍了深度学习中常用的损失函数(一) —— MSELoss()。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

 nn.MSELoss() 

        该函数叫做平均平方误差,简称均方误差。它的英文名是mean squared error,该损失函数是挨个元素计算的。该元素的公式如下:

                                

其连个输入参数,第一个参数是输出的参数,第二个参数是与之对比的参数。

mseloss,PyTorch,深度学习,深度学习,人工智能,机器学习

       loss= torch.nn.MSELoss(reduce=True, size_average=True)

       1、 如果reduce = False,返回向量形式的 loss 

  2、如果reduce = True, 返回标量形式的loss

       3、如果size_average = True,返回 loss.mean();

  4、如果 size_average = False,返回 loss.sum()

       默认情况下:两个参数都为True.
 

其代码如下: 

import torch
from torch import nn

loss = nn.MSELoss()
input = torch.randn(3, 5, requires_grad=True)
target = torch.randn(3, 5)
output = loss(input, target)
output.backward() # 反向传播
print('Loss: ',output.item())

# Loss:  1.120721459388733
import torch
from torch import nn

loss = nn.MSELoss(size_average=False) # 以向量的形式返回
input = torch.randn(3, 5,requires_grad=True)
target = torch.randn(3, 5)
output = loss(input, target)
output.backward() # 反向传播
print('Loss: ',output)
# Loss:  tensor(35.4082, grad_fn=<MseLossBackward>)

 文章来源地址https://www.toymoban.com/news/detail-523947.html

到了这里,关于深度学习中常用的损失函数(一) —— MSELoss()的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 深度学习之PyTorch实战(5)——对CrossEntropyLoss损失函数的理解与学习

      其实这个笔记起源于一个报错,报错内容也很简单,希望传入一个三维的tensor,但是得到了一个四维。 查看代码报错点,是出现在pytorch计算交叉熵损失的代码。其实在自己手写写语义分割的代码之前,我一直以为自己是对交叉熵损失完全了解的。但是实际上还是有一些些

    2023年04月09日
    浏览(44)
  • 【深度学习所有损失函数】在 NumPy、TensorFlow 和 PyTorch 中实现(2/2)

    在本文中,讨论了深度学习中使用的所有常见损失函数,并在NumPy,PyTorch和TensorFlow中实现了它们。         稀疏分类交叉熵损失类似于分类交叉熵损失,但在真实标签作为整数而不是独热编码提供时使用。它通常用作多类分类问题中的损失函数。 稀疏分类交叉熵损失的公

    2024年02月13日
    浏览(38)
  • 【深度学习所有损失函数】在 NumPy、TensorFlow 和 PyTorch 中实现(1/2)

    在本文中,讨论了深度学习中使用的所有常见损失函数,并在NumPy,PyTorch和TensorFlow中实现了它们。 我们本文所谈的代价函数如下所列:

    2024年02月13日
    浏览(47)
  • MSELoss详解+避坑指南

    loss(xi,yi)=(xi−yi)2 loss(xi,yi)=(xi−yi)2 这里 loss, x, y 的维度是一样的,可以是向量或者矩阵,i 是下标。 很多的 loss 函数都有 size_average 和 reduce 两个布尔类型的参数。因为一般损失函数都是直接计算 batch 的数据,因此返回的 loss 结果都是维度为 (batch_size, ) 的向量。 (1)如果 red

    2024年02月05日
    浏览(48)
  • Pytorch——常用损失函数详解

    首先直接贴上个人看过比较好的一些的解析: 深度学习之常用损失函数 损失函数loss大总结 损失函数(Loss Function) pytorch中的gather函数_PyTorch中的损失函数–L1Loss /L2Loss/SmoothL1Loss 很全的Pytorch loss函数汇总: pytorch loss function 总结 1. 余弦损失函数 torch.nn.CosineEmbeddingLoss 余弦损失

    2024年02月09日
    浏览(38)
  • 人工智能_机器学习065_SVM支持向量机KKT条件_深度理解KKT条件下的损失函数求解过程_公式详细推导_---人工智能工作笔记0105

    之前我们已经说了KKT条件,其实就是用来解决 如何实现对,不等式条件下的,目标函数的求解问题,之前我们说的拉格朗日乘数法,是用来对 等式条件下的目标函数进行求解. KKT条件是这样做的,添加了一个阿尔法平方对吧,这个阿尔法平方肯定是大于0的,那么 可以结合下面的文章去

    2024年02月04日
    浏览(43)
  • torch.nn中的L1Loss和MSELoss

    我们打开Pytorch官网,找到torch.nn中的loss function,进去如下图所示。   我们先来看看 L1LOSS 损失函数的使用。下图是官网给出的描述。         L1loss有两种方式,一种是将所有误差累加作为总损失,另一种是将所有误差累加之后求平均作为总损失。         例如,给定输入

    2024年02月09日
    浏览(38)
  • 【AI】《动手学-深度学习-PyTorch版》笔记(三):PyTorch常用函数

    返回一维张量(一维数组),官网说明,常见的三种用法如下 tensor.shape:查看张量的形状 tensor.reshape:返回改变形状后的张量,原张量不变

    2024年02月15日
    浏览(50)
  • 【人工智能与深度学习】均方损失,交叉墒损失,vgg损失,三元组损失

    均方损失,交叉墒损失,vgg损失,三元组损失的应用场景有哪些 均方损失(Mean Squared Error, MSE),交叉熵损失(Cross-Entropy Loss),和三元组损失(Triplet Loss)是机器学习和深度学习中常用的损失函数,每个都适用于不同的应用场景: 1. 均方损失(MSE) 应用场景 :主要用于回

    2024年01月22日
    浏览(102)
  • 【深度学习】分类损失函数解析

    在分类任务中,我们通常使用各种损失函数来衡量模型输出与真实标签之间的差异。有时候搞不清楚用什么,下面是几种常见的分类相关损失函数及其 解析,与代码示例 。 二元交叉熵损失(Binary Cross Entropy Loss,BCELoss): torch.nn.BCELoss() 是用于二元分类的损失函数。它将模型

    2024年02月09日
    浏览(52)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包