深度学习数据对模型的影响

这篇具有很好参考价值的文章主要介绍了深度学习数据对模型的影响。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

深度学习数据对模型的影响

本人作为一个深度学习小白,往往读论文只关注文章的pipeline是如何work的。忘记考虑数据对于模型的影响,也就导致对于论文的实验部分不太重视。对于同一个模型在不同数据集上性能差距很大也没有关注,故本文简单介绍一下数据对于模型性能的影响。

一、数据增强

数据增强是很多论文在实验部分对数据进行预处理的常见操作,常见的让我不以为意。从数据增强的使用频率来看,不难看出数据对于模型性能的重要性。此外不少论文专门研究如何去进行数据增强,比如AlignMixup等。

数据增强简单的说就是基于现有的数据集,通过一些列变换产生不同的数据集以此来增强网络性能。常见的变换有裁剪、旋转、平移、遮盖等。

深度学习数据对模型的影响

数据增强是有一定的目的性的,故不是所有数据增强都可以直接使用,需要具体问题具体分析。举两个例子。

  • 比如想要训练一个分类网络去区分青和黄柠檬。数据集仅包含青和黄柠檬这两类图片。如果选择使用改变数据集颜色这种数据增强方式将会严重影响模型性能。因为分类模型区分这两类主要在于颜色。

深度学习数据对模型的影响

  • 卷积网络有一种特性叫纹理倾向性。举个例子中的例子。如下图,是一个卷积分类网络得到的分类结果,可以看出C应该被识别成为一个猫,但应为卷积网络倾向于纹理特征,故决策为印度象。这个时候有人也许会说正常数据集怎么会出现C这种图片呢。是的,但是这个现象反映出得到的网络主要依赖纹理特征而形状特征也是一个重要的决策特征。如果能够让网络同时依赖这两个特征进行决策,这是不是可以提高网络特征。

    基于此,AlignMixup就采用对齐混合图像的方式进行数据增强,如下,获得狗的形状,企鹅的纹理的数据。这样也就提高了网络性能。

深度学习数据对模型的影响

二、长尾分布

深度学习数据对模型的影响

长尾分布比较常见,指的是数据集中少量类别占总数据集比重较大。如果使用带有长尾分布的数据集去直接训练分类网络的话,就会导致对于占比较大的类别能够较好的预测,占比较小的类别不能够较好的预测。这样做,模型整体性能就会下降。

三、数据量不足

数据量不足导致欠拟合,这是我们经常听到的,但是影响有多大呢。我们常用的数据集经过数据增强之后往往足够使用,这使得我们对于数据量不足这一情况欠考虑。尤其是当模型参数量很大,过于复杂时得到的性能比简单模型要差,这时候往往归结于模型的pipeline还是不够强大,却忽略了数据量的大小对模型性能的影响。

这里,我做了一个简单的实验——按比例去掉数据集来看看同一个模型得到的性能。结果如下.可以看到数据集数量对于模型性能影响较大。

数据占原数据集的比例 Acc
100% 95.6
50% 90.6
10% 87.5
5% 80.2

上述只是数据集对于模型影响的一小部分,但足以看出数据集对于神经网络是比较重要的。只是可能我们平时跑实验都是拿处理好的数据集来做,比较理想化,容易忽略数据集对于模型的影响。文章来源地址https://www.toymoban.com/news/detail-481671.html

到了这里,关于深度学习数据对模型的影响的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 《动手学深度学习 Pytorch版》 8.3 语言模型和数据集

    依靠在 8.1 节中对序列模型的分析,可以在单词级别对文本数据进行词元化。基本概率规则如下: P ( x 1 , x 2 , … , x T ) = ∏ t = 1 T P ( x t ∣ x 1 , … , x t − 1 ) P(x_1,x_2,dots,x_T)=prod^T_{t=1}P(x_t|x_1,dots,x_{t-1}) P ( x 1 ​ , x 2 ​ , … , x T ​ ) = t = 1 ∏ T ​ P ( x t ​ ∣ x 1 ​ , … , x t −

    2024年02月07日
    浏览(28)
  • 数据预处理的人工智能与深度学习:如何提高模型性能

    数据预处理是人工智能(AI)和深度学习(DL)领域中的一个关键环节,它涉及到数据清洗、数据转换、数据归一化、数据增强等多种操作,以提高模型性能。在过去的几年里,随着数据规模的增加和复杂性的提高,数据预处理的重要性得到了广泛认识。本文将从以下几个方面进行

    2024年02月19日
    浏览(54)
  • 使用MindSpore20.0的API快速实现深度学习模型之数据变换

    大家好,我是沐风晓月,本文是对昇思MindSpore社区的产品进行测试,测试的步骤,记录产品的使用体验和学习。 如果文章有什么需要改进的地方还请大佬不吝赐教👏👏。 🏠个人主页:我是沐风晓月 🧑个人简介:大家好,我是沐风晓月,双一流院校计算机专业😉😉 💕 座

    2024年01月25日
    浏览(29)
  • 深度学习必备知识——模型数据集Yolo与Voc格式文件相互转化

    在深度学习中,第一步要做的往往就是 处理数据集 ,尤其是学习百度飞桨PaddlePaddle的小伙伴,数据集经常要用Voc格式的,比如性能突出的ppyolo等模型。所以学会 数据集转化 的本领是十分必要的。这篇博客就带你一起进行Yolo与Voc格式的相互转化,附详细代码! Yolo数据集主要

    2024年01月17日
    浏览(33)
  • TabR:检索增强能否让深度学习在表格数据上超过梯度增强模型?

    这是一篇7月新发布的论文,他提出了使用自然语言处理的检索增强 Retrieval Augmented 技术,目的是让深度学习在表格数据上超过梯度增强模型。 检索增强一直是NLP中研究的一个方向,但是引入了检索增强的表格深度学习模型在当前实现与非基于检索的模型相比几乎没有改进。

    2024年02月14日
    浏览(27)
  • 深度学习推荐系统(八)AFM模型及其在Criteo数据集上的应用

    沿着特征工程自动化的思路,深度学习模型从 PNN ⼀路⾛来,经过了Wide&Deep、Deep&Cross、FNN、DeepFM、NFM等模型,进⾏了大量的、基于不同特征互操作思路的尝试。 但特征工程的思路走到这里几乎已经穷尽了可能的尝试,模型进⼀步提升的空间非常小,这也是这类模型的局限

    2024年02月09日
    浏览(38)
  • 深度学习一点通:PyTorch Transformer 预测股票价格,虚拟数据,chatGPT同源模型

    预测股票价格是一项具有挑战性的任务,已引起研究人员和从业者的广泛关注。随着深度学习技术的出现,已经提出了许多模型来解决这个问题。其中一个模型是 Transformer,它在许多自然语言处理任务中取得了最先进的结果。在这篇博文中,我们将向您介绍一个示例,该示例

    2024年02月06日
    浏览(39)
  • 深度学习-yolo-fastestV2使用自己的数据集训练自己的模型

    虽然说yolo-fastestV2在coco数据集上map只达到了24.1,但是应付一些类别少的问题还是可以的。主要是这个速度是真的香!简单来说就是一个快到飞起的模型。 github地址如下:yolo-fastestV2 yolo-fastestV2采用了轻量化网络shufflenetV2为backbone,笔者在这里就不详解yolo-fastestV2了,只讲怎么

    2024年02月06日
    浏览(36)
  • 【深度学习】YOLOv5实例分割 数据集制作、模型训练以及TensorRT部署

    yolov5-seg:官方地址:https://github.com/ultralytics/yolov5/tree/v6.2 TensorRT:8.x.x 语言:C++ 系统:ubuntu18.04 前言:由于yolo仓中提供了标准coco的json文件转txt代码,因此需要将labelme的json文件转为coco json. labelme JSON 转COCO JSON 使用labelme的CreatePolygons按钮开始绘制多边形,然后保存为json格式。

    2024年02月06日
    浏览(40)
  • 机器学习 day30(正则化参数λ对模型的影响)

    λ对Jcv和Jtrain的影响 假设该模型为四阶多项式 当λ很大时,在最小化J的过程中,w会很小且接近0,此时模型f(x)近似于一个常数,所以此时模型欠拟合,Jtrain和Jcv都很大 当λ很小时,表示模型几乎没有正则化,而四阶多项式的模型十分弯曲,所以此时模型过拟合,Jtrain很小,

    2024年02月15日
    浏览(26)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包