AI Paper English F.o.R.

人工知能(AI)に関する論文を英語リーディング教本のFrame of Reference(F.o.R.)を使いこなして読むブログです。

Transformer | Abstract 第1文

The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder.

 

Ashish Vaswani, et al., "Attention Is All You Need"

https://arxiv.org/abs/1706.03762

RNNやCNNを使わず、Attentionのみを使用した機械翻訳モデルであるTransformerの論文の"Attention Is All You Need"のAbstractの第1文について、英語リーディング教本のFrame of Reference(F.o.R.)を使って英文構造を解読します。

 

f:id:AI-paper-FoR:20190801223850p:plain

 

「最も有力な系列変換モデルは、エンコーダとデコーダを含む複雑な再帰型あるいは畳み込み型ニューラルネットワークに基づいている。」 

 

Recurrent Neural Network(RNN)のことは「再帰型ニューラルネットワーク」と呼ばれることが多いと思いますので、ここではそのように訳しています。

 

しかしながら、深層学習(Ian Goodfellow)の日本語版では、

  • Recurrent Neural Network: 回帰結合型ニューラルネットワーク
  • Recursive Neural Network: 再帰型ニューラルネットワーク

と訳されています。人によって日本語訳が異なることがありますので注意が必要です。そのため、直接英語を確認するのが一番確実だと思います。

 


ai-paper-for.hatenablog.com

  

 

薬袋善郎先生の公式ウェブサイト 

http://minai-yoshiro.com