VGGNet | Abstract 第2文
Our main contribution is a thorough evaluation of networks of increasing depth using an architecture with very small (3 × 3) convolution filters, which shows that a significant improvement on the prior-art configurations can be achieved by pushing the depth to 16–19 weight layers.
Karen Simonyan, et al., "Very Deep Convolutional Networks for Large-Scale Image Recognition"
2014年のILSVRCで2位になったディープラーニングモデルであるVGGNetの論文の"Very Deep Convolutional Networks for Large-Scale Image Recognition"のAbstractの第2文について、英語リーディング教本のFrame of Reference(F.o.R.)を使って英文構造を解読します。
「我々の主な貢献は、3×3の極めて小さな畳み込みフィルタからなる構造を使用した深さが増しているネットワークの徹底的な評価である。それによって、16-19の重みレイヤへと深くすることによって従来技術構造における著しい改善が達成できることが示された。」
関係代名詞を含むやや複雑な文章なので、少しだけ解説いたします。
whichは関係代名詞です。
whichが作る節の外側は、whichからlayersまでが形容詞節で、evaluationを修飾しているとしました。
whichの内側の働きは、主語です。
ここで一つはっきり言えることは、whichの直前のfiltersはwhichの修飾語ではないことです。なぜなら、whichは関係代名詞の内側で主語の役割をしており、その述語動詞であるshowsが三人称単数であるからです。whichは単数形であるべきなので、ここでは複数形であるfiltersはwhichの修飾語とすることができません。
単数形の名詞でwhichの修飾語となる候補として、contribution, evaluation, depth, architectureがあります。ここでは「何が」showsしたか、ということを一番直接的に示すthorough evaluation(徹底的な評価)をwhichの修飾語としました。
VGGNetの概要については、画像認識 (機械学習プロフェッショナルシリーズ)のChapter 6 (畳み込みニューラルネットワーク)に説明があります。
薬袋善郎先生の公式ウェブサイト