Batch Normalization | Abstract 第7文
Applied to a state-of-the-art image classification model, Batch Normalization achieves the same accuracy with 14 times fewer training steps, and beats the original model by a significant margin.
Sergey Ioffe, et al., "Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift"
内部共変量シフトを抑えることで過学習を抑制するBatch Normalizationの論文である
「最先端の画像分類モデルに適用すると、バッチ正規化は14倍少ない訓練ステップで同じ精度を達成し、元のモデルを大幅に上回る。」
薬袋善郎先生の公式ウェブサイト