Transformer | Abstract 第1文
The dominant sequence transduction models are based on complex recurrent or convolutional neural networks that include an encoder and a decoder.
Ashish Vaswani, et al., "Attention Is All You Need"
RNNやCNNを使わず、Attentionのみを使用した機械翻訳モデルであるTransformerの論文の"Attention Is All You Need"のAbstractの第1文について、英語リーディング教本のFrame of Reference(F.o.R.)を使って英文構造を解読します。
「最も有力な系列変換モデルは、エンコーダとデコーダを含む複雑な再帰型あるいは畳み込み型ニューラルネットワークに基づいている。」
Recurrent Neural Network(RNN)のことは「再帰型ニューラルネットワーク」と呼ばれることが多いと思いますので、ここではそのように訳しています。
しかしながら、深層学習(Ian Goodfellow)の日本語版では、
- Recurrent Neural Network: 回帰結合型ニューラルネットワーク
- Recursive Neural Network: 再帰型ニューラルネットワーク
と訳されています。人によって日本語訳が異なることがありますので注意が必要です。そのため、直接英語を確認するのが一番確実だと思います。
薬袋善郎先生の公式ウェブサイト