www.qmcl.net > BAtCh sgD

BAtCh sgD

深度学习中经常看到epoch、 iteration和batchsize,下面按自己的理解说说这三个的区别: (1)batchsize:批大校在深度学习中,一般采用SGD训练,即每次训练在训练集中取batchsize个样本训练; (2)iteration:1个iteration等于使用batchsize个...

对于sgd算法而言,batchsize太大太小都不好,太小的话训练不稳定,计算效率低;太大的话收敛速度慢,需要仔细调节一下。以2的倍数调节,例如32,64,128等

网站地图

All rights reserved Powered by www.qmcl.net

copyright ©right 2010-2021。
www.qmcl.net内容来自网络,如有侵犯请联系客服。zhit325@qq.com