アドビが凄い「アニメの表情」技術をつくりました【AI×アート】(論文解説)

   
↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

アニメキャラ、話す表情に違和感は?

人の表情をアニメーション化することは、映画制作、ビデオストリーミング、コンピュータゲームなどの分野で不可欠です。しかし、近年の技術進歩にもかかわらず、リアルな顔のアニメーションを人手を介さずに生成することは、未だに実現できていません。

従来の手法では、音声と顔の動きの間のマッピングを学習することでアニメーションの作成を行っています。しかし顔の動きは非常に複雑なので、このようなマッピングを見つけることは非常に困難で手間のかかる作業でした。

話者のアニメーション制作における課題に対して、実際にどんな研究が行われているのでしょうか。Adobe(アドビ)のYang Zhouら研究者の発表を紹介します。

研究者らは、音声信号と話者の画像などの情報を分離して解析することで、リアルなアニメーションの制作を試みました。

▼論文情報

著者:YANG ZHOU, XINTONG HAN, ELI SHECHTMAN, JOSE ECHEVARRIA, EVANGELOS KALOGERAKIS, DINGZEYU LI
タイトル:”MakeItTalk: Speaker-Aware Talking-Head Animation”
arXiv
URL:DOI

リアルな話者のアニメーション生成

まずはYANG ZHOUらの研究におけるミッション・手法・結果をまとめました。

続きを読むには無料会員登録が必要です。


※ログイン/初回登録後、下記ボタンを押してください。

    記事をご覧いただきありがとうございます。

    ・サイトや記事へのフィードバック
    ・文献調査のご依頼
    ・広告配信のご依頼
    ・AI人材の雇用相談
    ・AI開発のご相談

    など、何かありましたら、ご連絡ください。

    業界/カテゴリー

    PAGE TOP