AI Paper English F.o.R.

人工知能(AI)に関する論文を英語リーディング教本のFrame of Reference(F.o.R.)を使いこなして読むブログです。

Transformer | Abstract 第7文

We show that the Transformer generalizes well to other tasks by applying it successfully to English constituency parsing both with large and limited training data.

 

Ashish Vaswani, et al., "Attention Is All You Need"

https://arxiv.org/abs/1706.03762

RNNやCNNを使わず、Attentionのみを使用した機械翻訳モデルであるTransformerの論文の"Attention Is All You Need"のAbstractの第7文について、英語リーディング教本のFrame of Reference(F.o.R.)を使って英文構造を解読します。

 

f:id:AI-paper-FoR:20190811010556p:plain

 

「我々は、大きな訓練データと限られた訓練データの両方を用いて、Transformerを英語の句構造解析にうまく適用することで、Transformerが他のタスクにもよく汎化することを示す。」 

 

"constituency parsing"は「句構造解析」という意味のようです。

句構造文法 - Wikipedia

A Minimal Span-Based Neural Constituency Parser · Issue #95 · ymym3412/acl-papers · GitHub

 

英語リーディング教本のP276に説明のあるように、F.o.R.では"both 〜 and"を一つの等位接続詞として扱います。前置詞のwithと入り組んだ構造になっていますが、省略しないで書くと、

  • with large training data
  • with limited training data

を"both A and B"の形でつないでいます。

 

itはTransformerを指します。

 


ai-paper-for.hatenablog.com

  

 

薬袋善郎先生の公式ウェブサイト 

http://minai-yoshiro.com