Adam | Abstract 第1文
We introduce Adam, an algorithm for first-order gradient-based optimization of stochastic objective functions, based on adaptive estimates of lower-order moments.
Diederik P. Kingma, et al., "Adam: A Method for Stochastic Optimization"
学習を最適化させるアルゴリズムとして近年よく使われているAdamの論文である"Adam: A Method for Stochastic Optimization"のAbstractの第1文について、英語リーディング教本のFrame of Reference(F.o.R.)を使って英文構造を解読します。
「我々は、低次元モーメントの適応的な推定に基づく、一次の勾配法に基づく確率的な目的関数の最適化のためのアルゴリズムであるAdamを紹介する。」
薬袋善郎先生の公式ウェブサイト