【AI】《动手学-深度学习-PyTorch版》笔记(十七):卷积神经网络入门

这篇具有很好参考价值的文章主要介绍了【AI】《动手学-深度学习-PyTorch版》笔记(十七):卷积神经网络入门。希望对大家有所帮助。如果存在错误或未考虑完全的地方,请大家不吝赐教,您也可以点击"举报违法"按钮提交疑问。

AI学习目录汇总

1、从全链接层到卷积

1.1 卷积

我们在前面学习的多层感知机中,已经认识了全链接层,缺点很明显,在稍微大点的网络模型中,参数成指数级别增长。参数量很快就达到数十亿,这样的量级几乎无法计算。为此科学家们想出一个减少参数的方法:卷积。

从全链接层到卷积的推论,使用如下两个原则:

  • 平移不变性(translation invariance):不管检测对象出现在图像中的哪个位置,神经网络的前面几层应该对相同的图像区域具有相似的反应,即为“平移不变性”。
  • 局部性(locality):神经网络的前面几层应该只探索输入图像中的局部区域,而不过度在意图像中相隔较远区域的关系,这就是“局部性”原则。最终,可以聚合这些局部特征,以在整个图像级别进行预测。

(本人的理解)如果已经了解过什么是卷积核,可以这样理解上面的两个原则:

  • 卷积核以一定步长在图像上滑过,为什么要这么做?原理就是“平移不变性”
  • 卷积核为什么设计成小尺寸(3x3、5x5等)?原理就是“局部性”

从全链接层到卷积的数学推理,建议多读几遍原书中的内容,作者讲解的逻辑很清晰,读完豁然开朗。文章来源地址https://www.toymoban.com/news/detail-643844.html

到了这里,关于【AI】《动手学-深度学习-PyTorch版》笔记(十七):卷积神经网络入门的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处: 如若内容造成侵权/违法违规/事实不符,请点击违法举报进行投诉反馈,一经查实,立即删除!

领支付宝红包 赞助服务器费用

相关文章

觉得文章有用就打赏一下文章作者

支付宝扫一扫打赏

博客赞助

微信扫一扫打赏

请作者喝杯咖啡吧~博客赞助

支付宝扫一扫领取红包,优惠每天领

二维码1

领取红包

二维码2

领红包