2018年2月28日水曜日

論文解説 Convolutional Sequence to Sequence Learning (ConvS2S)

声に出して読みたい英語.

 

Colin@colinraffel

Also, RNNs aren't dead. Autoregressive CNN/intra-attentive models *are* RNNs. Their state is their output.

18:54 - 201789

·        

75

·        

Colinさんの他のツイートを見

Twitter広告の情報とプライバシ

RNN は死んでいない.自己回帰 CNN と注意 (再帰的構造) RNN だから.それらの状態は (内部状態ではなく) 出力にある.

こんにちは Ryobot (りょぼっと) です.

ConvS2S は脱 RNN による系列方向の並列化という風潮を決定づけたニューラル機械翻訳の手法です.GNMT より高性能かつ訓練も 5 倍高速です.従来の意味で RNN は死にましたが,冒頭の意味で RNN は生まれ変わりました.

WMT'14 BLEU スコアは英仏: 40.51, 英独: 25.16 で第 4 (登場時 2 )

·         Convolutional Sequence to Sequence Learning [Jonas Gehring, last: Yann N. Dauphin, arXiv, 2017/05]

·         Torch (著者ら)

·         PyTorch (著者ら)

·         Chainer

LSTM は前タイムステップの隠れ状態を現タイムステップの隠れ状態に使うので層内の並列化が困難であった (LSTM 内の重みを行列分解する Factorization Trick を用いた並列化は可能だが限度がある)

ConvS2S (Convolutional Sequence to Sequence) は単語列の処理を LSTM から CNN に置き換えることでタイムステップ方向の並列化を可能にしたモデルである.LSTM ゲーティングが重要なので,この部分を抜き出した Gated Linear Unit も併用する.

ConvS2S の詳細に入る前に,Gated Linear Unit について説明したい.

Gated Linear Unit

GCNN (Gated Convolutional Neural Network) [畳み込み層, GLU ] のブロックを L 層スタックしたモデルであり,タイムステップ方向の並列化が可能である.また,LSTM ゲーティングを取り入れた GLU (Gated Linear Unit) によって高い性能を獲得し,WikiText-103 データセットを用いた言語モデル SOTA を達成した.LSTM より約 20 倍訓練が高速である.

·         Language Modeling with Gated Convolutional Networks [Yann N. Dauphin, arXiv, 2016/12]

1 ブロック内では,入力 XX  2 つに分岐 (コピー) し,それぞれ畳み込み層 A=XW+bA=XW+b  B=XV+cB=XV+c で長期依存を捉え,GLU  H=Aσ(B)H=A⊗σ(B) ゲーティング (上層へ送る情報を制御) する.また,ブロックの入力から出力を残差接続 (Residual Connection) する.

パッチサイズ (patch size, カーネルサイズkk の畳み込みを nn 層スタックしたモジュールは各出力位置が n(k1)+1n(k1)+1 個の入力位置の情報を集約できる.またGLU 層のゲーティングは広範囲の情報を得るか少数の情報に集中するか制御できる.

ll ブロック目の出力 hl(X)hl(X) は次式によって表される.

ここで,XRN×mXRN×m は入力 (単語列の埋め込みないし前層の出力)W,VRk×m×nW,VRk×m×nはそれぞれ畳み込み層のカーネルbRnbRn はバイアス,σσ シグモイド関数 は要素ごとの積 (アダマール) である.

また,NN は単語数,m,nm,n はそれぞれ入力と出力の特徴マップの数,kk はパッチサイズである.

畳み込み層がやや分かりづらいが下図のとおり.

注意点として,タスクは言語モデル (次の単語を予測) なので,畳み込み層は予測すべき未来の単語が予測前のモデルにリークしないようにする必要がある.よってカーネルが未来を参照しないように畳み込み層の入力 XX を後方へシフトし,入力 XX の先頭を k1k1 の長さだけ 0 埋めする.

ConvS2S

本手法ではエンコーダとデコーダ [畳み込み層, GLU ] のブロックを 15 層スタックしたものを使用する.デコーダは畳み込み層の入力 XX を後方へシフトし,カーネルが未来を参照しないようにする.

青色の三角形が畳み込み層,,,  GLU 層を表す.

デコーダ訓練時に自己回帰せず,全ターゲット単語を同時に入力し,注意も同時に計算し,全単語を同時に出力する.これは訓練を高速する理由の 1 つである.

ConvS2S では単語列の語順 (絶対的な位置) の情報をモデルに与えるために位置埋め込みを使用する.

位置埋め込み (Position Embedding) [Henaff, 2016; Gehring, 2017] は位置ごとに異なる変数 (学習パラメータ) を加算する.

エンコーダとデコーダそれぞれの単語列の埋め込み行列 W=(w1,…wm)W=(w1,wm),wherewjRfwherewjRf に対して位置の埋め込み行列 P=(p1,…pm)P=(p1,pm)wherepjRfwherepjRf を加算し,E=(w1+p1,…wm+pm)E=(w1+p1,wm+pm) とする.

類似したアイデアである位置エンコーディング (Position Encoding) [Sukhbaatar, 2015; Kaiser, 2017] は位置ごとに異なる定数 (二次方程式や正弦波) を加算する.

複数ステップの注意

注意はクエリに関連する情報を文脈 (Context) として取り出す機構である.

ConvS2S ではデコーダのすべての層で注意を個別に計算する.

ll 層目のエンコーダの出力を Zl=(zl1,…,zlm)Zl=(z1l,,zml)ll 層目のデコーダの出力を Hl=(hl1,…,hlm)Hl=(h1l,,hml) として,ll 層目のデコーダ ii 系列目をクエリ dlidil とする注意を考えたい.

クエリ dlidil は次式によって表される.

ここで hlihil デコーダの出力,gigi は前回の予測単語の埋め込みベクトルであり,学習パラメータ WldWdl は重み行列,bldbdl はバイアスベクトルである.

注意の重み (Attention Weight) alijaijl は次式によって表される.

ここでクエリ dlidil は前述のとおりで,キー zujzju はエンコーダの最終層 uu の出力の jj 系列目である.注意の重みは uu からどの情報をどの程度取り出すかを加重和で決めるための重みである.

文脈 (Context) clicil は次式によって表される.

ここで ejej は位置埋め込みの出力であり,文脈 clicil  hlihil に加算される.注意によってバリュー zuj+ejzju+ej から適度に文脈情報を取り出している.

ここまでの説明は注意を個別に計算したが,すべてのクエリが同時に得られるとき注意をまとめて計算できる.

注意は一般的に次式によって表される.

Context=Softmax(QueryKeyT)ValueContext=Softmax(QueryKeyT)Value

ConvS2S では ll 層目のデコーダの注意は Query 行列 DlDlKey 行列 ZuZuValue 行列 Zu+EZu+E を用いて次式によって表される.

Cl=Softmax(DlZuT)(Zu+E)Cl=Softmax(DlZuT)(Zu+E)

注意を実装する際はこちらの式に従い,バッチのテンソルを演算する (決して for 文を使用すべからず)

従来の NMT ではデコーダ 1 系列の生成に 1 度のみ注意を計算する (GNMT も各層は同じ文脈を使用する)

ConvS2S は層ごとに注意を再計算する複数ステップの注意 (Multi-step Attention) を使用する.これは End-To-End Memory Network [Sukhbaatar, 2015] で用いられた複数ホップの注意から着想を得て,その後 Transformer [Kaiser, 2017] 等に採用されることになる.複数ステップの注意によって,ある層のある時刻の注意は下層や過去の注意履歴を参照できる.

正規化と初期化

ConvS2S ではネットワーク全体で活性化の分散が急激に変化しないように,ネットワークの一部 (eg, 残差ブロック, 注意) の出力をスケーリング (ie, 正規化) して学習を安定させる.

·         残差ブロックの入出力の分散は等しいと仮定し,入出力の和に 0.5−−−√0.5 を掛けて和の分散を半分にする

·         注意の出力は mm 個のベクトルの加重和なので,m1/m−−−−m1/m を掛けて分散の変化を打ち消す (mm の乗算は入力をオリジナルのサイズにスケールするため)

·         エンコーダの各層の勾配は使用した注意機構の数だけスケールする.

また順/逆伝播の活性化の分散するために,慎重に重みの初期化を行う.

·         すべての埋め込み層の重みは N(0,0.01)N(0,0.01) (平均 00 標準偏差 0.10.1 正規分布) に従い初期化する.

·         上層が GLU 層ではない層の重みは N(0,1/nl−−−−)N(0,1/nl) (nlnl は入力の次元数) に従い初期化 (ie, Xavier Initialization) し,正規分布に従った入力の分散を維持する.

·         上層が GLU 層である層の重みは N(0,4/nl−−−−)N(0,4/nl) に従い初期化する.これは GLU 層への入力が平均 00 で十分に小さい分散をもつとき,GLU 層は出力の分散を入力の分散の 1/41/4 に近似できるので,GLU 層への入力の分散が 44 倍になるように重みを初期化している.

·         バイアスは一律に 00 で初期化する.

入力が確率 pp で保持されるドロップアウトを複数の層に適応する場合,これは確率 pp  11(それ以外は 00) をとるベルヌーイ確率変数を乗算と見做すことができる.ドロップアウトを適応すると分散が 1/p1/p にスケールされるので,各層を大きな重みで初期化し分散を保持する必要がある.よって上層が GLU 層である層の重みは N(0,4p/nl−−−−−)N(0,4p/nl) に従い初期化し,それ以外は N(0,p/nl−−−−)N(0,p/nl) に従い初期化する.

実験と結果

データセット WMT'14 の英仏 (35.5M 対訳文) と英独 (4.5M 対訳文) を使用する.
ソース言語とターゲット言語で語彙を共有した Byte-Pair Encoding (BPE) ベースの 40000 サブワードを使用する.

モデルは [畳み込み層, GLU ] のブロックを 15 層スタックし,それぞれの隠れ層サイズは最初の 10 層が 512,次の 3 層が 768,最後の 2 層が 2048 (英独の場合) である.

学習は 8 枚の M40 GPU による同期型データ並列 (勾配の和は Nvidia NCCL で計算) を行った.最適化は係数 0.99 のモーメンタム (ie, Nesterov の加速勾配降下法) を使用し,学習率は 0.25 から始め,検証セットのパープレキシティが下げ止まったら学習率を半減させる.

評価はビーム幅 5 のビーム探索を使用する.初期値のみ異なる 3 個のモデルを訓練して評価結果を平均した値を掲示する.

シングルモデルを学習した結果は次のとおり.

BLEU スコアは MoE [Shazeer, 2017] にはやや及ばないものの,英独・英仏ともに GNMT [Wu, 2016] より 0.5 ポイント高いスコアを達成した.

8 モデルのアンサンブルを学習した結果は次のとおり.

アンサンブル学習は英独・英仏ともに SOTA を達成した (英仏は現時点でも SOTA である)

その他

ConvS2S GNMT に比べて単語列の生成速度が早く,CPUGPU ともに約 10 倍速である (図は省略)

左下図はデコーダ 5 層のブロックを用いた ConvS2S に対して,複数ステップの注意を適応する層を変えた場合の PPL BLEU の変化であり,右下図はエンコーダとデコーダの層数を変えた場合の BLEU の変化である.

注意は下層ほど重要度が高く,全層に注意を適応する場合が最も性能が高い.またエンコーダの層数は深いほど性能が高く,デコーダ 5 層付近が良い.

畳み込み層のカーネルサイズと,エンコーダとデコーダの層数を変えた場合の BLEU の変化は次図のとおりである.

カーネルサイズは小さい方が性能が高く,エンコーダは 13 層,デコーダ 5 層が良い

 

0 件のコメント:

コメントを投稿