深度學習中經常看到epoch、 iteration和batchsize,下面按自己的了解說說這三個的差別:
(1)batchsize:批大小。在深度學習中,一般采用SGD訓練,即每次訓練在訓練集中取batchsize個樣本訓練;
(2)iteration:1個iteration等于使用batchsize個樣本訓練一次;
(3)epoch:1個epoch等于使用訓練集中的全部樣本訓練一次;
舉個例子,訓練集有1000個樣本,batchsize=10,那麼:
訓練完整個樣本集需要:
100次iteration,1次epoch。
關于batchsize可以看看http://blog.csdn.net/qq_27923041/article/details/74925057。