实验记录resnet20/cifar100

这篇具有很好参考价值的文章主要介绍了实验记录resnet20/cifar100。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

Cifar100 / resnet20:

1、Baseline

Namespace:(batch_size=128, decay=0.0003, epoch=200, gammas=[0.1, 0.1, 0.5],  learning_rate=0.1, momentum=0.9, optimizer='SGD',  schedule=[80, 120, 160])

Best acc: 68.85%

80 和 120 是拐点

2、batch_size, gammas

Namespace(batch_size=512,  decay=0.0003, epoch=200, gammas=[0.1, 0.1, 0.1],  learning_rate=0.1, momentum=0.9, optimizer='SGD',schedule=[55, 110, 160])

best:66.51%

batchsize增大会导致准确率下降

3、lr * 0.1

Namespace(batch_size=128,  decay=0.0003, epoch=200, gammas=[0.1, 0.1, 0.5],  learning_rate=0.01, momentum=0.9,optimizer='SGD',schedule=[80, 120, 160])

66.67%、

初始lr改为0.01会导致准确率下降

4、调整schedule & gammas

Namespace(batch_size=128,  decay=0.0003, epoch=200, gammas=[0.1, 0.1, 0.1],  learning_rate=0.1, momentum=0.9,  optimizer='SGD', schedule=[55, 110, 160])

68.85%

不变

5、

epoch=100,baseline

Namespace(batch_size=64,  decay=0.0003, epoch=100, gammas=[0.1, 0.1, 0.5], lambda1=0.0, learning_rate=0.1, momentum=0.9, , optimizer='SGD'schedule=[20, 40, 60], time=0)

EPOCH=98,best_acc= 64.310%

改了dataloader:

6、

epoch200, batch=64

Namespace(batch_size=64,  decay=0.0003, epoch=200, gammas=[0.1, 0.1, 0.1], lambda1=0.0, learning_rate=0.1, momentum=0.9, noptimizer='SGD', schedule=[55, 110, 160])

69.200%

test_acc:68.15%

        继续训:

        0:EPOCH=271,best_acc= 69.380%

             test acuuracy 68.470%

        1:EPOCH=282,best_acc= 69.460%

        test acuuracy 68.550%

        2:EPOCH=213,best_acc= 69.450%

        test acuuracy 68.560%

        3:EPOCH=213,best_acc= 69.450%

        test acuuracy 68.570%


改验证集:

Namespace(batch_size=64, decay=0.0003, epoch=150, gammas=[0.1, 0.1, 0.1], learning_rate=0.1, momentum=0.9,num_workers=16, optimizer='SGD',  schedule=[40, 80, 120])

EPOCH=138,best_acc= 83.920%

Test_acc: 66.30文章来源地址https://www.toymoban.com/news/detail-519348.html

到了这里,关于实验记录resnet20/cifar100的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • Resnet18训练CIFAR10 准确率95%

    准确率 95.31% 几个关键点: 1、改模型:原始的resnet18首层使用的7x7的卷积核,CIFAR10图片太小不适合,要改成3x3的,步长和padding都要一并改成1。因为图太小,最大池化层也同样没用,删掉。最后一个全连接层输出改成10。 2、图片增强不要太多,只要训练集和验证集结果没有出

    2024年02月02日
    浏览(38)
  • Resnet实现CIFAR-10图像分类 —— Mindspore实践

            计算机视觉是当前深度学习研究最广泛、落地最成熟的技术领域,在手机拍照、智能安防、自动驾驶等场景有广泛应用。从2012年AlexNet在ImageNet比赛夺冠以来,深度学习深刻推动了计算机视觉领域的发展,当前最先进的计算机视觉算法几乎都是深度学习相关的。深

    2024年02月07日
    浏览(38)
  • 爆肝3W多字,100多张配图!深度学习从小白到精通一篇博文帮你打开人工智能的大门建议收藏不容错过!!!

    🤡博客主页:Code_文晓 😻 欢迎关注: 感谢大家的点赞评论+关注,祝您学有所成!   在介绍深度学习之前,我们先看下这幅图:人工智能机器学习深度学习。 深度学习是机器学习的⼀个子集,也就是说深度学习是实现机器学习的一种方法。与机器学习算法的主要区别如下

    2024年03月24日
    浏览(45)
  • Linux Ubuntu20.04深度学习环境快速配置命令记录

    1、更新系统包 2、安装显卡驱动 使用apt方式安装驱动,多数情况不容易成功, 使用一下方法更佳: 1.查看合适显卡的驱动版本 NVIDIA GeForce 驱动程序 - N 卡驱动 | NVIDIA NVIDIA GeForce 驱动程序官方提供下载最新版的 Geforce 驱动程序,可提升 PC 游戏体验和应用程序速度。更多关于更

    2024年02月09日
    浏览(56)
  • 混淆矩阵Confusion Matrix(resnet34 基于 CIFAR10)

    目录 1. Confusion Matrix 2. 其他的性能指标 3. example 4. 代码实现混淆矩阵 5.  测试,计算混淆矩阵 6. show 7. 代码 混淆矩阵可以将真实标签和预测标签的结果以矩阵的形式表示出来,相比于之前计算的正确率acc更加的直观。 如下,是花分类的混淆矩阵: 之前计算的acc = 预测正确的

    2024年02月01日
    浏览(43)
  • python与深度学习(九):CNN和cifar10

    本篇文章是CNN的另外一个例子,cifar10,是彩色的十分类数据集。 可以搭建卷积神经网络来训练模型。 以下第三方库是python专门用于深度学习的库 把cifar10数据集进行加载 x_train是fashion_mnist训练集图片,大小的32 32 3的,y_train是对应的标签是数字。 x_test是fashion_mnist测试集图片,大

    2024年02月15日
    浏览(38)
  • 【深度学习】pytorch——实现CIFAR-10数据集的分类

    笔记为自我总结整理的学习笔记,若有错误欢迎指出哟~ 往期文章: 【深度学习】pytorch——快速入门 CIFAR-10是一个常用的图像分类数据集,每张图片都是 3×32×32,3通道彩色图片,分辨率为 32×32。 它包含了10个不同类别,每个类别有6000张图像,其中5000张用于训练,1000张用于

    2024年02月06日
    浏览(49)
  • 【Python机器学习】实验15 将Lenet5应用于Cifar10数据集

    CIFAR-10 数据集由10个类别的60000张32x32彩色图像组成,每类6000张图像。有50000张训练图像和10000张测试图像。数据集分为五个训练批次 和一个测试批次,每个批次有10000张图像。测试批次包含从每个类别中随机选择的1000张图像。训练批次包含随机顺序的剩余图像,但一些训练批

    2024年02月11日
    浏览(35)
  • 人工智能学习07--pytorch14--ResNet网络/BN/迁移学习详解+pytorch搭建

    亮点:网络结构特别深 (突变点是因为学习率除0.1?) 梯度消失 :假设每一层的误差梯度是一个小于1的数,则在反向传播过程中,每向前传播一层,都要乘以一个小于1的误差梯度。当网络越来越深的时候,相乘的这些小于1的系数越多,就越趋近于0,这样梯度就会越来越小

    2023年04月11日
    浏览(133)
  • 【Python机器学习】实验15 将Lenet5应用于Cifar10数据集(PyTorch实现)

    CIFAR-10 数据集由10个类别的60000张32x32彩色图像组成,每类6000张图像。有50000张训练图像和10000张测试图像。数据集分为五个训练批次 和一个测试批次,每个批次有10000张图像。测试批次包含从每个类别中随机选择的1000张图像。训练批次包含随机顺序的剩余图像,但一些训练批

    2024年02月11日
    浏览(37)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包