Pytorch激活函数最全汇总

这篇具有很好参考价值的文章主要介绍了Pytorch激活函数最全汇总。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

为了更清晰地学习Pytorch中的激活函数,并对比它们之间的不同,这里对最新版本的Pytorch中的激活函数进行了汇总,主要介绍激活函数的公式、图像以及使用方法,具体细节可查看官方文档。


目录

1、ELU

2、Hardshrink

3、Hardsigmoid

4、Hardtanh

5、Hardswish

6、LeakyReLU

7、LogSigmoid

8、PReLU

9、ReLU

10、ReLU6

11、RReLU

12、SELU

13、CELU

14、GELU

15、Sigmoid

16、SiLU

17、Mish

18、Softplus

19、Softshrink

20、Softsign

21、Tanh

22、Tanhshrink

23、Threshold

24、GLU

25、Softmin

26、Softmax

27、LogSoftmax

28、其它


1、ELU

公式:

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.ELU()
input = torch.randn(2)
output = m(input)

2、Hardshrink

公式:

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

示例:

m = nn.Hardshrink()
input = torch.randn(2)
output = m(input)

3、Hardsigmoid

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Hardsigmoid()
input = torch.randn(2)
output = m(input)

4、Hardtanh

公式:

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Hardtanh(-2, 2)
input = torch.randn(2)
output = m(input)

5、Hardswish

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Hardwish()
input = torch.randn(2)
output = m(input)

6、LeakyReLU

公式:

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

示例:

m = nn.LeakyReLU(0.1)
input = torch.randn(2)
output = m(input)

7、LogSigmoid

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 

示例;

m = nn.LogSigmoid()
input = torch.randn(2)
output = m(input)

8、PReLU

公式:

其中,a是可学习的参数。

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.PReLU()
input = torch.randn(2)
output = m(input)

9、ReLU

公式:

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.ReLU()
input = torch.randn(2)
output = m(input)

10、ReLU6

公式:

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.ReLU6()
input = torch.randn(2)
output = m(input)

11、RReLU

公式:

其中,a从均匀分布U(lower,upper)随机采样得到。

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.RReLU(0.1, 0.3)
input = torch.randn(2)
output = m(input)

12、SELU

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

其中,a=1.6732632423543772848170429916717,scale=1.0507009873554804934193349852946。

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

示例:

m = nn.SELU()
input = torch.randn(2)
output = m(input)

13、CELU

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.CELU()
input = torch.randn(2)
output = m(input)

14、GELU

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.GELU()
input = torch.randn(2)
output = m(input)

15、Sigmoid

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn. Sigmoid()
input = torch.randn(2)
output = m(input)

16、SiLU

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.SiLU()
input = torch.randn(2)
output = m(input)

17、Mish

公式:

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Mish()
input = torch.randn(2)
output = m(input)

18、Softplus

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

对于数值稳定性,当时,恢复到线性函数。

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Softplus()
input = torch.randn(2)
output = m(input)

19、Softshrink

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Softshrink()
input = torch.randn(2)
output = m(input)

20、Softsign

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Softsign()
input = torch.randn(2)
output = m(input)

21、Tanh

公式:

pytorch 激活函数,神经网络,人工智能,深度学习

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Tanh()
input = torch.randn(2)
output = m(input)

22、Tanhshrink

公式:

图像:

pytorch 激活函数,神经网络,人工智能,深度学习

 示例:

m = nn.Tanhshrink()
input = torch.randn(2)
output = m(input)

23、Threshold

公式:

示例:

m = nn.Threshold(0.1, 20)
input = torch.randn(2)
output = m(input)

24、GLU

公式:

其中,a是输入矩阵的前半部分,b是后半部分。

示例:

m = nn.GLU()
input = torch.randn(4, 2)
output = m(input)

25、Softmin

公式:

示例:

m = nn.Softmin(dim=1)
input = torch.randn(2, 3)
output = m(input)

26、Softmax

公式:

示例:

m = nn.Softmax(dim=1)
input = torch.randn(2, 3)
output = m(input)

27、LogSoftmax

公式:

示例:

m = nn.LogSoftmiax(dim=1)
input = torch.randn(2, 3)
output = m(input)

28、其它

还有MultiheadAttention、Softmax2d、AdaptiveLogSoftmaxWithLoss相对复杂一些没有添加,可去官网文档查看。文章来源地址https://www.toymoban.com/news/detail-603121.html

到了这里,关于Pytorch激活函数最全汇总的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 神经网络:激活函数

    在计算机视觉中,激活函数是神经网络中的一种非线性函数,用于引入非线性变换和非线性特性到网络中。激活函数的作用、原理和意义如下: 1. 引入非线性变换: 神经网络的线性组合层(如卷积层和全连接层)只能表示线性关系,而计算机视觉任务通常涉及到复杂的非线

    2024年02月11日
    浏览(38)
  • 神经网络 02(激活函数)

    在神经元中引入了激活函数,它的 本质是向神经网络中引入非线性因素的 ,通过激活函数, 神经网络就可以拟合各种曲线 。 如果不用激活函数,每一层输出都是上层输入的线性函数,无论神经网络有多少层,输出 都是输入的线性组合 ; 引入非线性函数作为激活函数,那输

    2024年02月07日
    浏览(36)
  • 神经网络基础-神经网络补充概念-20-激活函数

    激活函数是神经网络中的一个重要组成部分,它引入了非线性性质,使得神经网络可以学习和表示更复杂的函数关系。激活函数对于将输入信号转换为输出信号起到了关键作用,它在神经元的计算过程中引入了非线性变换。 Sigmoid函数: Sigmoid 函数将输入映射到一个 0 到 1 的

    2024年02月12日
    浏览(47)
  • 【深度学习】2-1 神经网络 - 激活函数

    将输入信号的总和转换为输出信号,一般称为激活函数(activation function)。激活函数作用在于决定如何来激活输入信号的总和。 对激活函数,一般要求: 非线性 :为提高模型的学习能力,如果是线性,那么再多层都相当于只有两层效果。 可微性 :有时可以弱化,在一些点

    2024年02月09日
    浏览(40)
  • 神经网络基础-神经网络补充概念-52-正则化网络的激活函数

    正则化是一种用于减少过拟合(overfitting)的技术,可以在神经网络的各个层次中应用,包括激活函数。激活函数的正则化主要目的是减少神经网络的复杂度,防止网络在训练集上过度学习,从而提高泛化能力。 L2 正则化(权重衰减):在网络的损失函数中引入 L2 正则化项,

    2024年02月12日
    浏览(36)
  • [深度学习入门]什么是神经网络?[神经网络的架构、工作、激活函数]

      在大多数资料中,神经网络都被描述成某种 正向传播的矩阵乘法 。而本篇博文 通过将神经网络描述为某种计算单元 ,以一种更加简单易懂的方式介绍神经网络的功能及应用。   广义上讲,神经网络就是要 在输入数据中找寻某种规律 ,就像这个经典的例子: 手写数

    2024年02月17日
    浏览(51)
  • pytorch工具——使用pytorch构建一个神经网络

    注意

    2024年02月16日
    浏览(38)
  • 【深入了解pytorch】PyTorch卷积神经网络(CNN)简介

    卷积神经网络(Convolutional Neural Network,CNN)是一种在计算机视觉任务中广泛应用的深度学习模型。它通过卷积层、池化层和全连接层等组件,能够有效地提取图像特征并实现高准确率的图像分类、目标检测和语义分割等任务。本文将详细介绍CNN的原理,并演示如何使用PyTor

    2024年02月16日
    浏览(46)
  • PyTorch深度学习实战(3)——使用PyTorch构建神经网络

    我们已经学习了如何从零开始构建神经网络,神经网络通常包括输入层、隐藏层、输出层、激活函数、损失函数和学习率等基本组件。在本节中,我们将学习如何在简单数据集上使用 PyTorch 构建神经网络,利用张量对象操作和梯度值计算更新网络权重。 1.1 使用 PyTorch 构建神

    2024年02月08日
    浏览(47)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包