实例解读nn.AdaptiveAvgPool2d((1, 1))

这篇具有很好参考价值的文章主要介绍了实例解读nn.AdaptiveAvgPool2d((1, 1))。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

nn.AdaptiveAvgPool2d((1, 1))在PyTorch中创建一个AdaptiveAvgPool2d类的实例。该类在输入张量上执行2D自适应平均池化。

自适应平均池化是一种池化操作,它计算每个输入子区域的平均值并产生一个指定大小的输出张量。子区域的大小是根据输入张量的大小和输出张量的期望大小自动确定的。

在这种情况下,通过将(1, 1)作为参数传递给nn.AdaptiveAvgPool2d,输出张量的期望大小被指定为(1, 1)。这意味着输出张量的空间尺寸(H_out,W_out)=(1,1)。

当一个形状为(N, C, H_in, W_in)的输入张量通过这个AdaptiveAvgPool2d层时,它计算每个(H_in, W_in)子区域的平均值并产生一个形状为(N, C, H_out, W_out)=(N, C, 1, 1)的输出张量。

举个例子:

import torch.nn as nn

adaptive_avg_pool = nn.AdaptiveAvgPool2d((1, 1))

x = torch.randn(64, 512, 4, 4)
y = adaptive_avg_pool(x)

print(y.shape) # torch.Size([64, 512, 1, 1])

在这个例子中,创建了一个输出大小为(1, 1)的AdaptiveAvgPool2d层。当一个形状为(64, 512, 4, 4)的输入张量通过该层时,它计算每个(4, 4)子区域的平均值并产生一个形状为(64 ,512 ,1 ,1)的输出张量。

------------------------------------------------------------------------------------------------------------------------------

官方解释:

实例解读nn.AdaptiveAvgPool2d((1, 1))

 

m = nn.AdaptiveAvgPool2d(7)
input = torch.randn(1, 64, 10, 9)
output = m(input)
print(output.shape)

输出:torch.Size([1, 64, 7, 7])
m = nn.AdaptiveAvgPool2d((5, 7))
input = torch.randn(1, 64, 8, 9)
output = m(input)
print(output.shape)

输出:torch.Size([1, 64, 5, 7])文章来源地址https://www.toymoban.com/news/detail-431941.html

到了这里,关于实例解读nn.AdaptiveAvgPool2d((1, 1))的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【海量数据挖掘/数据分析】 之 K-NN 分类(K-NN、K-NN实例、准确率评估方法、准确率、召回率)

    目录 【海量数据挖掘/数据分析】 之 K-NN 分类(K-NN、K-NN实例、准确率评估方法、准确率、召回率) 一、 K-NN 简介 二、K-NN 分类 三、K-NN 分类实例 1、1-NN 分类 : 此时 A 类别有 1 个 , B 类别有 0 个 , 红色点被分为 A 类别 ;  2、3-NN 分类 : 此时 A 类别有  1 个 ,  B 类别有 2 个 , 红色点

    2024年02月12日
    浏览(60)
  • 【AdaptiveAvgPool3d】pytorch教程

    b站视频: https://www.bilibili.com/video/BV1va411D7Ua 官方文档:https://pytorch.org/docs/stable/generated/torch.nn.AdaptiveAvgPool3d.html 参考资料: https://runebook.dev/zh-CN/docs/pytorch/generated/torch.nn.adaptiveavgpool3d Pytorch常用Layer深度理解:https://zhuanlan.zhihu.com/p/371167523 Applies a 3D adaptive average pooling over an in

    2024年02月05日
    浏览(38)
  • 实例解读华为云数字工厂平台的逻辑模型编排器

    摘要:  本期结合一个“生产执行管理”案例场景涉及的相关业务活动流程,系统地介绍了华为云数字工厂平台的逻辑模型编排器的使用方法。 本文分享自华为云社区《数字工厂深入浅出系列(三):逻辑模型编排器的使用方法介绍》,作者:云起MAE 。 华为云数字工厂平台

    2024年02月06日
    浏览(30)
  • 技术解读倚天 ECS 实例 — Arm 芯片的 Python-AI 算力优化

    深度学习技术在图像识别、搜索推荐等领域得到了广泛应用。近年来各大 CPU 厂商也逐渐把 AI 算力纳入了重点发展方向,通过《Arm 芯片 Python-AI 算力优化》我们将看到龙蜥社区 Arm 架构 SIG(Special Interest Group) 利用最新的 Arm 指令集优化 Python-AI 推理 workload 的性能。 倚天ECS实

    2024年01月18日
    浏览(34)
  • 数据结构学习记录——图应用实例-拯救007(问题描述、解题思路、伪代码解读、C语言算法实现)

    目录 问题描述  解题思路 伪代码  总体算法 DFS算法 伪代码解读 总体算法 DFS算法 具体实现(C语言) 在老电影“007之生死关头”(Live and Let Die)中有一个情节,007被毒贩抓到一个鳄鱼池中心的小岛上,他用了一种极为大胆的方法逃脱 —— 直接踩着池子里一系列鳄鱼的大脑

    2024年02月05日
    浏览(78)
  • LLMs之LLaMA-2:源码解读(generation.py文件)—Llama类实现基于预训练模型的文本生成功能(基于单轮提示实现文本补全/多轮对话生成)=build函数构建Llama实例+init

    LLMs之LLaMA-2:源码解读(generation.py文件)—Llama类实现基于预训练模型的文本生成功能(基于单轮提示实现文本补全/多轮对话生成)=build函数构建Llama实例+init函数初始化模型和词表对象+generate函数基于提示文本生成文本序列+sample_top_p辅助函数实现了控制随机性的核心采样策略top

    2024年02月07日
    浏览(46)
  • nn.Sequential、nn.Linear、nn.ReLU()函数

    nn.Sequential 是 PyTorch 中的一个容器模块,用于按照顺序组合多个神经网络层(如线性层、激活函数、池化层等)。这个容器允许你将各种层按照指定的顺序串联在一起,构建一个神经网络模型。nn.Sequential() 可以允许将整个容器视为单个模块(即相当于把多个模块封装成一个模

    2024年02月07日
    浏览(41)
  • PyTorch中的nn.LeakyReLU()、nn.Module和nn.ModuleList

      在 PyTorch 中, nn.LeakyReLU() 是一个激活函数,用于引入非线性性到神经网络中。Leaky ReLU 是修正线性单元(ReLU)的一种变体,它在输入为负数时不是完全置零,而是引入一个小的负斜率。 nn.LeakyReLU() 的初始化参数如下: negative_slope (默认为 0.01 ):负斜率,指定当输入为

    2024年01月18日
    浏览(46)
  • pytorch容器之nn.Sequential, nn.ModuleList, nn.ModuleDict介绍

      在深度学习模型创建的时候,我们经常会碰到 nn.Sequential , nn.ModuleList , nn.ModuleDict 这三个东西,尤其是在迁移学习训练的时候经常碰到,他们到底是什么,怎么用的,使用的时候有哪些注意事项,通过这篇博文浅记一下。   在介绍这三个容器之前,我们需要先知道什么

    2024年02月08日
    浏览(51)
  • nn.BatchNorm讲解,nn.BatchNorm1d, nn.BatchNorm2d代码演示

            BatchNorm是深度网络中经常用到的加速神经网络训练,加速收敛速度及稳定性的算法,是深度网络训练必不可少的一部分,几乎成为标配;         BatchNorm 即批规范化,是为了 将每个batch的数据规范化为统一的分布 ,帮助网络训练, 对输入数据做规范化,称为

    2023年04月18日
    浏览(48)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包