TransGAN -Transformerを2つ合わせて強いGANを1つ作る新手法(論文解説)

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

不安定性により訓練が困難なGAN

近年注目を集めている敵対的生成ネットワーク(GAN)は、様々なタスクにおいて大きな成功を収めています。その一方で、ネットワークを訓練する際にはその不安定性によって研究者を苦しめてきました。

GANの訓練を行うために様々な正則化の手法を導入したり、より良い損失関数を提案したり、ネットワークの構造そのものを改善したりすることが研究対象になってきました。
様々なGANに関する常識が問われ研究対象となってきましたが、畳み込みニューラルネットワーク(CNN)を用いるという常識を問う研究はほとんどなされていません。


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

CNNをGANの基盤アーキテクチャに用いるという常識に対して、実際にどんな研究が行われているのでしょうか。アメリカにあるテキサス大学オースティン校のYifan Jiangらの研究を紹介します。

研究者らは、自然言語処理で広く使われているトランスフォーマーアーキテクチャをGANに適用することで、これまでの常識に囚われないGANの設計を試みました。

CNNをベースにしないGANの構築

まずはYifan Jiangらの研究におけるミッション・手法・結果をまとめました。

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP