目录
1 epoch
2 batch
3 batchsize
4 区别
1 epoch
当数据集中的全部数据样本通过神经网络一次并且返回一次的过程即完成一次训练称为一个epoch。
当我们分批学习时,每次使用过全部训练数据完成一次Forword运算以及一次BP运算,称为完成了一次epoch。
epoch时期 = 所有训练样本的一个正向传递和一个反向传递。
为什么要设置多个epoch?文章来源:https://www.toymoban.com/news/detail-716596.html
因为在神经网络中传递完整的数据集一次是不够的,而且我们需要将完整的数据集在同样的神经网络中传递多次。我们使用的是有限的数据集,并且我们使用一个迭代过程即梯度下降,优化学习过程和图示。因此只更新权重一次或说使用一个 epoch 是不够的。文章来源地址https://www.toymoban.com/news/detail-716596.html
2 batch
到了这里,关于神经网络中epoch、batch、batchsize区别的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!