TransGAN -Transformerを2つ合わせて強いGANを1つ作る新手法(論文解説)

   

不安定性により訓練が困難なGAN

近年注目を集めている敵対的生成ネットワークGAN)は、様々なタスクにおいて大きな成功を収めています。その一方で、ネットワークを訓練する際にはその不安定性によって研究者を苦しめてきました。

GANの訓練を行うために様々な正則化の手法を導入したり、より良い損失関数を提案したり、ネットワークの構造そのものを改善したりすることが研究対象になってきました。
様々なGANに関する常識が問われ研究対象となってきましたが、畳み込みニューラルネットワーク(CNN)を用いるという常識を問う研究はほとんどなされていません。

CNNをGANの基盤アーキテクチャに用いるという常識に対して、実際にどんな研究が行われているのでしょうか。アメリカにあるテキサス大学オースティン校のYifan Jiangらの研究を紹介します。

研究者らは、自然言語処理で広く使われているトランスフォーマーアーキテクチャGANに適用することで、これまでの常識に囚われないGANの設計を試みました。

CNNをベースにしないGANの構築

まずはYifan Jiangらの研究におけるミッション・手法・結果をまとめました。

続きを読むには無料会員登録が必要です。


※ログイン/初回登録後、下記ボタンを押してください。

↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

業界/カテゴリー

PAGE TOP
0
Would love your thoughts, please comment.x
()
x