torch.sigmoid()、torch.softmax()、sum

这篇具有很好参考价值的文章主要介绍了torch.sigmoid()、torch.softmax()、sum。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

torch.sigmoid()、torch.softmax()、sum

1、torch.sigmoid()

对每个元素进行处理(函数为torch.sigmoid,pytorch,深度学习,人工智能)

举例:

A = torch.Tensor([1,2,3]) #一维
B = torch.sigmoid(A)
print(B)

torch.sigmoid,pytorch,深度学习,人工智能

A = torch.Tensor([[1,2,3],[1,2,3]]) #二维
B = torch.sigmoid(A)
print(B)

torch.sigmoid,pytorch,深度学习,人工智能

2、torch.softmax()

公式:torch.sigmoid,pytorch,深度学习,人工智能

二维情况下,dim=1时,对行进行计算

A = torch.Tensor([[1,1],[1,1],[1,3]])
B = torch.softmax(A,dim=1) #对行 进行softmax
print(B)

[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-GIDLbimg-1666254112726)(https://cdn.jsdelivr.net/gh/bean661/images@main/img/202210201552330.png)]

二维情况下,dim=0时,对列进行计算

A = torch.Tensor([[1,1],[1,1],[1,3]])
B = torch.softmax(A,dim=0) #对列 进行softmax
print(B)

torch.sigmoid,pytorch,深度学习,人工智能

3、sum

A = torch.Tensor([[1,2],[3,4],[5,6]])
B = A.sum(dim=0)
print()

([[1,2],[3,4],[5,6]])
B = A.sum(dim=0)
print()文章来源地址https://www.toymoban.com/news/detail-561476.html


[外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传(img-LPNL8qgZ-1666254112727)(https://cdn.jsdelivr.net/gh/bean661/images@main/img/202210201620452.png)]

到了这里,关于torch.sigmoid()、torch.softmax()、sum的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【AI】《动手学-深度学习-PyTorch版》笔记(十二):从零开始实现softmax回归

    对于图像算法,每个像素可以视为一个特征,例如图像的分辨率为28x28,则有784个特征。而且常常将二维的图像像素矩阵展开为长度为784的向量。 本例中,将使用Fashion-MNIST数据集,它是一个服装分类数据集,可以将服装分为10个类别。 输入图像的分辨率为28x28,即特征是长度

    2024年02月13日
    浏览(47)
  • 激活函数(Relu,sigmoid,Tanh,softmax)详解

    目录 1 激活函数的定义 2 激活函数在深度学习中的作用 3 选取合适的激活函数对于神经网络有什么样的重要意义 4 常用激活函数 4.1 Relu 激活函数 4.2 sigmoid 激活函数 4.3 Tanh激活函数 4.4 softmax 激活函数 激活函数(Activation Function),就是在人工神经网络的神经元上运行的函数,

    2024年01月16日
    浏览(38)
  • 三分钟认知Softmax和Sigmoid的详细区别

    Softmax以及Sigmoid这两者都是神经网络中的激活函数,对应还有其他的激活函数 引入激活函数是为了将其输入非线性化,使得神经网络可以逼近任何非线性函数 (原本没有引入激活函数,就是多个矩阵进行相乘,无论神经网络多少层都是线性组合,这个概念是感知机) Softmax以

    2023年04月09日
    浏览(26)
  • 【深度学习】torch.utils.data.DataLoader相关用法 | dataloader数据加载器 | pytorch

    dataloader数据加载器属于是深度学习里面非常基础的一个概念了,基本所有的图像项目都会用上,这篇博客就把它的相关用法总结一下。 之所以要写这篇,是想分清楚len(data_loader)和len(data_loader.dataset) 这里加载的数据我们以Mnist手写数据集为例子 torchvision.datasets.MNIST是用来加载

    2024年02月16日
    浏览(58)
  • 深度学习:Sigmoid函数与Sigmoid层区别

    在深度学习和神经网络中,“Sigmoid” 是一个常见的术语,通常用来表示两个相关但不同的概念:Sigmoid激活函数和Sigmoid神经网络层。这两者在神经网络中的使用和功能有所不同。下面记录说明它们之间的区别。 功能 :Sigmoid激活函数是一种非线性函数,通常用于神经网络的隐

    2024年02月11日
    浏览(44)
  • 神经网络激活函数--Sigmoid、Tanh、Relu、Softmax

    本文主要总结了Sigmoid、Tanh、Relu、Softmax 四种函数;给出了函数的形式,优缺点和图像。 sigmoid和Tanh函数的导数简单,但是可能出现梯度弥散。 ReLU函数仅保留正元素,有良好的特性。 Softmax一般是用于分类最后一层的归一化。 目录 1.Sigmoid 函数 2.Tanh函数  3.Relu函数 4.Softmax函

    2024年01月19日
    浏览(41)
  • 深度学习:Pytorch安装的torch与torchvision的cuda版本冲突问题与解决历程记录

    今天不小心将conda环境中的一个pytorch环境中的torch包给搞混了,将其更新了一下,发生了一些问题: 当时运行了一下这个代码:  pip install torchvision --upgrade 导致了环境中包的混乱: 只能说欲哭无泪,当时这个 pytorch环境中我是安装的CUDA11.8的版本应该,后来安装了cpu版本的将

    2024年02月20日
    浏览(48)
  • 人工智能概论报告-基于PyTorch的深度学习手写数字识别模型研究与实践

    本文是我人工智能概论的课程大作业实践应用报告,可供各位同学参考,内容写的及其水,部分也借助了gpt自动生成,排版等也基本做好,大家可以参照。如果有需要word版的可以私信我,或者在评论区留下邮箱,我会逐个发给。word版是我最后提交的,已经调整统一了全文格

    2024年02月05日
    浏览(74)
  • 人工智能深度学习100种网络模型,精心整理,全网最全,PyTorch框架逐一搭建

    大家好,我是微学AI,今天给大家介绍一下人工智能深度学习100种网络模型,这些模型可以用PyTorch深度学习框架搭建。模型按照个人学习顺序进行排序: 深度学习模型 ANN (Artificial Neural Network) - 人工神经网络:基本的神经网络结构,包括输入层、隐藏层和输出层。 学习点击地

    2024年02月14日
    浏览(54)
  • 深度学习实战24-人工智能(Pytorch)搭建transformer模型,真正跑通transformer模型,深刻了解transformer的架构

    大家好,我是微学AI,今天给大家讲述一下人工智能(Pytorch)搭建transformer模型,手动搭建transformer模型,我们知道transformer模型是相对复杂的模型,它是一种利用自注意力机制进行序列建模的深度学习模型。相较于 RNN 和 CNN,transformer 模型更高效、更容易并行化,广泛应用于神

    2023年04月22日
    浏览(64)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包