pytorch的卷积层池化层和非线性变化 和机器学习线性回归

这篇具有很好参考价值的文章主要介绍了pytorch的卷积层池化层和非线性变化 和机器学习线性回归。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

卷积层:

 pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归两个输出的情况 就会有两个通道 可以改变通道数的

最简单的神经网络结构:

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归nn.Mudule就是继承父类

super执行的是 先执行父类函数里面的

forward执行的就是前向网络,就是往前推进的,当然也有反向转播,那就是用来就gradient dicent了,求导计算了。

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

卷积后的结果展示:

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归这里有个小细节

224 *244输出 224 *224 肯定是加了padding的,如何算出这个padding 官网给了公式pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

这个一般用不到,写论文科研可以再去官网查看

下面介绍池化层

mxpool是下采样,mxunpool是上采样,dilation是空洞卷积,ceil——mode来保留,用来对应下面情况

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

最大池化操作,这里有一点要注意,stride(每次核移动的步进)默认为卷积核一样大小

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

 pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归池化的直观感受就是变模糊了,保留了数据的主要特征,减小了数据量。

下面介绍非线性:

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归inplace如果是1的话就是替换input,如果是flase的话,就是把输出用另一个变量来承接

一般来说是要false的,保留以前的数据嘛

下面是使用sigmoid函数进行的非线性处理

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

插播stm32学习的:

陀螺仪原理:

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

 

下面介绍机器学习线性回归的问题:

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

x就是各种已知道的特征,这就是回归任务的第一步,线性回归

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归,这是实际值

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

第二步 就是我有label 和feartures 用函数预测出预测label,比较好坏。选出比较规则。

 pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

利用梯度下降,第三步找到最好loss

 pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

这种情况看人品?no 线性回归不需要担心,永远是第一种情况

梯度下降的算法:

 pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

用二次拟合更好的model:

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

或者更高的次来拟合更好的model 和更低的loss:

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

直到你用更高次的model来拟合,train 的结果更高了,但是test的结果更差了,这个就是过拟合了overfitting了

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

这个时候我们还要考虑:有时候只考虑一种feature肯定是不够的

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

用冲激函数来乘 来做选择,考虑多种feature

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归

把全部能想象到的参数都加进去,因为我们不知道有哪些参数是影响的,这样做,我们在train上可以得到很低,但是又可能会过拟合!做到这里,还可以回到第二步,定义model的好坏。第二部只考虑的了预测值的error,regularization是加上额外的wi

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归要求参数越小越好,降低敏感度,提高函数的平滑性!

pytorch的卷积层池化层和非线性变化 和机器学习线性回归,机器学习,pytorch,线性回归也不可以太平滑了,就相当于一个水平线,啥也干不成。调整朗木达来调整,为什么朗木达里面没有加上b?因为调整b的大小根本没用

总结:一个输出和多个feature有关,不过我们不确定那些有影响,就会overfiting,可以用正则化来平滑函数文章来源地址https://www.toymoban.com/news/detail-732468.html

到了这里,关于pytorch的卷积层池化层和非线性变化 和机器学习线性回归的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 【探索AI】十八 深度学习之第3周:卷积神经网络(CNN)(二)-常见的卷积层、池化层与全连接层

    卷积神经网络(Convolutional Neural Network,CNN)是一种深度学习算法,特别适用于处理图像相关的任务。CNN通过模拟人脑视觉皮层的层次化结构,实现了对图像的高效特征提取和分类。下面将详细介绍CNN的基本原理和结构,包括卷积层、池化层和全连接层的作用和位置。 卷积层

    2024年04月16日
    浏览(30)
  • Pytorch中最大池化层Maxpool的作用说明及实例使用(附代码)

    目录 1. 池化的功能 2. 神经原网络设定最大卷积层的作用 3. torch.nn.MaxPool2d() 4. 使用torch.nn.MaxPool2d()实战  3. Pytorch源码 1. 池化的功能 先通过与卷积的相同点及不同点说明池化的功能。 池化与卷积的共同点: 池化操作也是原图像矩阵(或特征图矩阵)与一个固定形状的窗口(

    2024年02月05日
    浏览(35)
  • PyTorch入门学习(十):神经网络-非线性激活

    目录 一、简介 二、常见的非线性激活函数 三、实现非线性激活函数 四、示例:应用非线性激活函数 一、简介 在神经网络中,激活函数的主要目的是引入非线性特性,从而使网络能够对非线性数据建模。如果只使用线性变换,那么整个神经网络就会退化为一个线性模型,因

    2024年02月06日
    浏览(33)
  • 4. 池化层相关概念

    ① 最大池化层有时也被称为下采样。 ② dilation为空洞卷积,如下图所示。 ③ Ceil_model为当超出区域时,只取最左上角的值。 ④ 池化使得数据由5 * 5 变为3 * 3,甚至1 * 1的,这样导致计算的参数会大大减小。例如1080P的电影经过池化的转为720P的电影、或360P的电影后,同样的网速

    2024年02月11日
    浏览(30)
  • 6.5 池化层

    是什么 :池化层跟卷积层类似有个滑动窗口,用来取一个区域内的最大值或者平均值。 作用: 卷积神经网络的最后的部分应该要看到整个图像的全局,通过池化(汇聚)操作,逐渐汇聚要取的像素,最终实现学习全局表示的目标。同时,卷积层的所有优势也被保留在了中间层

    2024年02月14日
    浏览(31)
  • 机器学习——池化层

    池化层是深度学习中常用的一种层级结构,它可以对输入数据进行降采样,减少数据量,同时保留重要的特征信息。池化层通常紧跟在卷积层之后,可以有效地减少数据量和计算复杂度,提高模型的训练速度和泛化能力。 池化层的结构与卷积层类似,它也由多个滤波器组成,

    2024年02月15日
    浏览(38)
  • 什么是池化层?

    池化层(Pooling Layer)是卷积神经网络(CNN)中的一个重要组件,用于减少特征图(feature maps)的维度,同时保留重要的特征信息。以下是池化层的几个关键特点: 降低维度:池化层通过减少特征图的大小来降低数据的空间维度,这有助于减少计算量和避免过拟合。 操作方式

    2024年01月17日
    浏览(29)
  • 池化层

    池化操作是CNN中非常常见的一种操作,池化层是模仿人的视觉系统对数据进行降维,池化操作通常也叫做子采样(Subsampling)或降采样(Downsampling),在构建卷积神经网络时,往往会用在卷积层之后,通过池化来降低卷积层输出的特征维度,有效减少网络参数的同时还可以防止过拟

    2024年02月12日
    浏览(27)
  • 计算机视觉:池化层的作用是什么?

    在深度学习中,卷积神经网络(CNN)是一种非常强大的模型,广泛应用于图像识别、目标检测、自然语言处理等领域。而池化层作为CNN中的一个关键步骤,扮演着优化神经网络、提升深度学习性能的重要角色。本文将深入探讨池化层的作用及其重要性,帮助读者更好地理解和

    2024年02月07日
    浏览(32)
  • 神经网络基础-神经网络补充概念-62-池化层

    池化层(Pooling Layer)是深度学习神经网络中常用的一种层级结构,用于减小输入数据的空间尺寸,从而降低模型的计算复杂度,减少过拟合,并且在一定程度上提取输入数据的重要特征。池化层通常紧跟在卷积层之后,用于缩小卷积层输出的尺寸。 常见的池化操作包括最大

    2024年02月12日
    浏览(34)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包