nn.Dropout随机丢神经元的用法

这篇具有很好参考价值的文章主要介绍了nn.Dropout随机丢神经元的用法。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

前言:

pytorch与tensorflow中均有nn.dropout,两者之间的使用方法,下面将介绍。

一、torch.nn.dropout

说明文档:

r"""During training, randomly zeroes some of the elements of the input
tensor with probability :attr:`p` using samples from a Bernoulli
distribution. Each channel will be zeroed out independently on every forward
call.

This has proven to be an effective technique for regularization and
preventing the co-adaptation of neurons as described in the paper
`Improving neural networks by preventing co-adaptation of feature
detectors`_ .

Furthermore, the outputs are scaled by a factor of :math:`\frac{1}{1-p}` during
training. This means that during evaluation the module simply computes an
identity function.

大致的翻译:

在训练期间,随机地将输入的一些元素归零,以概率为`p`,使用伯努利分布的样本。每个通道将在每次前向调用时被独立清零。

这已被证明是一种有效的正则化技术,可以 防止神经元的共同适应,如论文中所述 "Improving neural networks by preventing co-adaptation of feature detectors"。

此外,训练过程中,输出的比例为:math:`frac{1}{1-p}`【a1*(1-p)=a】。这意味着,在评估过程中,该模块只需计算一个 识别函数。

1.1对于一维度向量的dropout

import torch
a = torch.randn(10)
p = 0.3 # probability of an element to be zeroed
Dropout = torch.nn.Dropout(p)
a1 = Dropout(a)
print(a)
print(a1)

程序输出结果为

nn.dropout,pytorch,python,源码简介-pytorch,深度学习,人工智能,python

 由上图可以知道,:

0.p的作用:元素被清零的概率

1.红色框框部分:10个元素,其中有三个被置零,概率为0.3

2.紫色框框的元素:output = input/(1-p)

1.2对于二维卷积特征图的操作

import torch
a = torch.randn([2,2,3,4])
p = 0.3 # probability of an element to be zeroed
Dropout = torch.nn.Dropout(p)
a1 = Dropout(a)
print(a)
print(a1)

程序的输入:batch_size = 2, channel=2,w=3,h=4=>[2,2,3,4]

输出结果如图所示:

nn.dropout,pytorch,python,源码简介-pytorch,深度学习,人工智能,pythonnn.dropout,pytorch,python,源码简介-pytorch,深度学习,人工智能,python

 有兴趣可以多测试机组,按batch计算概率,通道之间累加,看图意会一下。

 文章来源地址https://www.toymoban.com/news/detail-801139.html

 

 

到了这里,关于nn.Dropout随机丢神经元的用法的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • TensorFlow入门(十七、神经元的拟合原理)

    深度学习的概念源于人工神经网络的研究,神经网络是由多个神经元组成,。一个神经元由以下几个关键知识点组成:                                 ①激活函数                ②损失函数                ③梯度下降 单个神经元的网络模型如图所示 用计算公式

    2024年02月07日
    浏览(18)
  • ps2021神经ai滤镜无法使用,ps2021没法用神经元滤镜

    网上买正版,更新下就好了,盗版的都会有各种这样的问题。ps2021神经AI滤镜是需简要上传云端,由Adobe官方服务器人工智能运算的。 Ps2021版本新增了Ai神经元滤镜,它不是与软件一起安装的,只能在线调用,破解版的ps刚发布不久是可以使用的,后来就不能使用了,目前为止

    2024年02月10日
    浏览(15)
  • 人工智能与神经元的内容梳理(持续更新)

    在过去的几年中,深度学习模型已应用于不同领域的各种任务/应用。随着深度学习在不同领域的成熟和数量的增加,我决定整理相关资料来进行学习。 神经元(选读)阅读 函数极限与连续性 导数与微分 不定积分 定积分 常微分方程与数学模型 函数可积性与广义积分 无穷级

    2024年02月06日
    浏览(21)
  • 自适应PID算法学习(01)——单神经元PID控制

      单神经元含有n个输入,仅1个输出,每个输入端可记作 x i ( i = 1 , 2 , . . . n ) x_i (i=1,2,...n) x i ​ ( i = 1 , 2 , ... n ) ,若该神经元为多元组成网络中某一层(输入层/输出层/隐含层)其中的一个单元,记该神经元输出为 o j ( j = 1 , 2 , . . . ) o_j(j=1,2,...) o j ​ ( j = 1 , 2 , ... ) ;不

    2024年02月16日
    浏览(18)
  • 【人工智能】神经网络、M-P_神经元模型、激活函数、神经网络结构、学习网络参数、代价定义、总代价

    ⚫ 输入:来自其它n个神经元传递过来的输入信号 ⚫ 处理:输入信号通过带权重的连接进行传递, 神经元接受到总输入值将与神经元的阈值进行比较 ⚫ 输出:通过激活函数的处理以得到输出

    2024年02月16日
    浏览(23)
  • 【人工智能】神经元数学模型的基本方程式及其意义详细说明

    神经元数学模型的基本方程式及其意义 在神经科学中,数学模型被广泛应用于理解神经元及其网络的激活、沟通和计算作用。本文将详细讨论一些典型神经元数学模型的基本方程式及其意义,以表达对神经网络实现认知和行为功能的认识。 一、Hodgkin-Huxley 模型

    2024年02月07日
    浏览(28)
  • 人体大脑神经元运行模拟器!让你直观体验大脑的运行方式

    最近沾花在网上看到一个 神奇 的网站:A Neural Network Playground 经过沾花的亲手测试,发现这玩意儿能模拟人体大脑神经元的运行! 下面是网址: A Neural Network Playground OK,下面来教大家怎么用: 使用时,选择数据集中的一种数据,相应地调整神经元的类型和网络形态(至于怎

    2024年02月14日
    浏览(23)
  • Pytorch各种Dropout层应用于详解

    目录 torch框架Dropout functions详解 dropout 用途 用法 使用技巧 参数 数学理论公式 代码示例 alpha_dropout 用途 用法 使用技巧 参数 数学理论公式 代码示例  feature_alpha_dropout 用途 用法 使用技巧 参数 数学理论 代码示例 dropout1d 用途 用法 使用技巧 参数 数学理论 代码示例 dropout2d 用

    2024年01月21日
    浏览(18)
  • PyTorch简单易懂的解析 Dropout Layers应用,代码示例

    目录 torch.nn子模块Dropout Layers详解 nn.Dropout 用途 用法 使用技巧 注意事项 代码示例 nn.Dropout1d 用途 用法 使用技巧 注意事项 代码示例 nn.Dropout2d 用途 用法 使用技巧 注意事项 代码示例 nn.Dropout3d 用途 用法 使用技巧 注意事项 代码示例 nn.AlphaDropout 用途 用法 使用技巧 注意事项

    2024年02月02日
    浏览(14)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包