Batch Normalization | Abstract 第5文
Batch Normalization allows us to use much higher learning rates and be less careful about initialization.
Sergey Ioffe, et al., "Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift"
内部共変量シフトを抑えることで過学習を抑制するBatch Normalizationの論文である"Batch Normalization: Accelerating Deep Network Training by Reducing Internal Covariate Shift"のAbstractの第5文について、英語リーディング教本のFrame of Reference(F.o.R.)を使って英文構造を解読します。
「バッチ正規化は我々に、非常に高い学習率を使うことと、初期化についてあまり注意をしないことを可能にする。」
この文のbeについて解説します。
beは動詞の原形です。
"(省略されたto) + be"で不定詞副詞用法であり、allowsを修飾する働きをしています。
beの意味上の主語はusであり、beの主語はBatch Normalizationではありません。
なぜなら、主語がBatch Normalizationである場合は、原形のbeではなく、第三文型のisになるはずだからです。
また、beの主語がBatch Normalizationであると、be less careful(あまり注意をしない)の主語がBatch Normalizationになってしまい、意味的にも成立しません。
また、上記の説明ではallowを第三文型としましたが、第五文型の使役動詞と解釈もできるようですので、そのパターンも図示しておきたいと思います。
薬袋善郎先生の公式ウェブサイト