土堆学习笔记——P28完整的模型训练套路(二)

这篇具有很好参考价值的文章主要介绍了土堆学习笔记——P28完整的模型训练套路(二)。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

怎么知道模型有没有训练好?有没有达到想要的需求?
解决方法:在每轮训练之后加一个测试,在测试数据集上看效果(看损失之类的)。
注意:在测试时候不调优,仅为看效果。

下面的都在某一轮训练里
例如,他们都在for i in range(epoch):里面,具体看上一节代码
#测试步骤开始
total_test_loss = 0
with torch.no_grad():#取消梯度,不调优
	for data in tes_dataloader:
		img, targets = data
		outputs = tudui(imgs)
		loss = loss_fn(outputs, targets)
		#截止到现在,loss只是一部分数据也就是data在网络模型上的损失
		total_test_loss = total_test_loss+loss
		#accuracy看后面准确率那里的讲解
		accuracy = (outputs.argmax(1)==targets).sum()
		#targets在上面img, targets = data
		total_accuracy = total_accuracy + accuracy
print("整体数据集上的Loss:{}".format(total_test_loss))
print("整体数据集上的正确率:{}".format(total_accuracy/total_test_size))
torch.save(tudui,"tudui_{}.pth".format(i))

还可以用tensorboard可视化损失

预测的准确率(针对分类问题)

土堆学习笔记——P28完整的模型训练套路(二),学习,笔记截图最后一行没写完[false, true].sum()=1
这个值/个数

Argmax使用
Argmax(1)表示横着看,Argmax(0)表示竖着看。同样一组数,输出结果不同。
土堆学习笔记——P28完整的模型训练套路(二),学习,笔记

土堆学习笔记——P28完整的模型训练套路(二),学习,笔记文章来源地址https://www.toymoban.com/news/detail-797468.html

到了这里,关于土堆学习笔记——P28完整的模型训练套路(二)的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

  • 基于opencv与机器学习的摄像头实时识别数字!附带完整的代码、数据集和训练模型!!

    使用摄像头实时识别数字算是目标检测任务,总体上分为两步,第一步是检测到数字卡片的位置,第二步是对检测到的数字卡片进行分类以确定其是哪个数字。在第一步中主要涉及opencv的相关功能,第二步则使用机器学习的方式进行分类。 重点操作是使用轮廓查找函数,获取

    2024年02月15日
    浏览(63)
  • Pytorch学习笔记(模型训练)

    在同一个包下创建 train.py 和 model.py ,按照步骤先从数据处理,模型架构搭建,训练测试,统计损失,如下面代码所示 train.py model.py 运行 train.py 后可以通过启动tensorboard进行查看我们的loss情况,损失是不断下降的。 补充 argmax 函数的使用 我们模型预测处理的是概率,我们需

    2024年02月07日
    浏览(44)
  • 大模型学习笔记08——分布式训练

    模型规模的扩大,对硬件(算力、内存)的发展提出要求。然而,因为内存墙的存在,单一设备的算力及容量,受限于物理定律,持续提高芯片的集成越来越困难,难以跟上模型扩大的需求。 为了解决算力增速不足的问题,人们考虑用多节点集群进行分布式训练,以提升算力

    2024年01月23日
    浏览(45)
  • 谷歌训了28个15亿参数模型,说明数据对大模型训练的影响

    夕小瑶科技说 原创 作者 | Python 随着ChatGPT的爆火,大规模语言模型(Large Language Model,LLM)如日中天。然而,由于相关数据细节并不公开,相关研究大多都是盲人摸象式探索,缺乏系统的经验指导。 本文针对LLM的语言模型预训练步骤给出了系统的经验性探索,训练了28个1.5

    2024年02月07日
    浏览(41)
  • K210学习笔记——MaixHub在线训练模型(新版)

      最近sipeed推出了新版的maixhub在线训练平台,因为前端时间比较忙没有时间来体验新版的功能,最近闲下来后赶忙来体验一下。新版maixhub对浏览器有要求的,比如不支持qq浏览器,推荐使用Chrome、Microsoft Edge、Firefox、Safari等浏览器。点击这里跳转新版maixhub。   新版mai

    2023年04月08日
    浏览(34)
  • 【大厂AI课学习笔记】【2.2机器学习开发任务实例】(8)模型训练

    好吧,搞了半天,都是围绕数据在干活,这也就验证了,我们说的,数据准备等工作,要占到机器学习项目一半以上的工作量和时间。而且数据决定了模型的天花板,算法只是去达到上限。 我们今天来学习模型训练! 首先,我们来进行线性回归训练,如上图。 当训练到los

    2024年02月21日
    浏览(39)
  • 训练自己的ai模型(一)学习笔记与项目实操

    ai模型大火,作为普通人,我也想做个自己的ai模型 收集数据:需要确定想要训练模型的数据类型,并找到相应的数据源。这可能需要一些领域知识和搜索技巧,以找到合适的数据源。 数据清理和预处理:一旦收集到数据,需要对其进行清理和预处理,以确保数据集的质量和

    2024年02月11日
    浏览(42)
  • K210学习笔记(十二)——MaixHub本地训练模型(Windows)

    MaixHub虽然可以在线训练模型,但是数据集限制大小为20M以下,而且大多数时候都需要排队才能训练模型,这可能就不能满足我们对模型的需求,所以我在Windows系统下搭建环境,本地训练模型。对于本地训练的纯小白来说,虽然MaixHub本地训练不需要虚拟机,但是还是要严格按

    2023年04月26日
    浏览(46)
  • AI大模型学习笔记之二:什么是 AI 大模型的训练和推理?

    在人工智能(AI)的领域中,我们经常听到 训练(Training) 和 推理(Inference) 这两个词汇,它们是构建强大 AI 模型的关键步骤。我们通过类比人类的学习过程来理解这两个概念,可以更加自然而生动地理解AI大模型的运作原理。 想象一下,当一个人类宝宝刚刚降临人间,还没

    2024年01月19日
    浏览(36)
  • K210学习笔记(十一)——MaixHub在线训练模型(旧版在线炼丹)

    个人觉得K210与openmv最大的区别就是可以跑模型了,虽然不能跑yolov5得这类大型模型,但是还是可以使用一些yolov2、Mobilenet V1等轻量化模型。 想要训练一个可用得模型,奈何电脑显卡不给力,没关系,我们可以使用Spieed的MaixHub模型在线训练来训练模型。Maixhub 模型训练平台帮

    2024年02月05日
    浏览(67)

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包