動画中の人間を切り抜く軽量なAIネットワーク「MODNet」登場【GitHub】

   
★AIDB会員限定Discordを開設いたしました! ログインの上、マイページをご覧ください。

★企業と人材のマッチングサービスを準備中です。アンケートのご協力をお願いいたします!↓

関連記事: 「背景合成」がより簡単になる。AI技術「trimapフリー」発表【CVPR2020】

グリーンバックを使用しないアルファマット予測の手法が登場しました!


AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

背景

画像や動画から人物を抽出するためにアルファマットの予測をしますが、リアルタイムで高品質なアルファマットを得るにはグリーンバックが必要です。グリーンバックを使用しない場合、取得にコストがかかる補助入力が必要になるか、計算コストがかかる複数のモデルが必要になります。グリーンバックを使用しない既存のマット化方法は、事前に定義されたtrimap(前地/後地/未知のセグメンテーション)を使用しており、trimapは人間が注釈をつけるにはコストがかかったり、深度カメラで撮影した場合には精度が低くなったりします。そのため、最新の研究ではtrimapへのモデル依存性を排除する、trimapフリーの手法が試みられています。

SenseTimeのZhanghan Keらは、単一の入力画像からリアルタイムで人間の切り抜きを処理できる軽量のネットワークであるMODNetを提案しています。

テクノロジー

従来の方法との比較。DIMをMODNetによる検出として表す。(画像は論文より引用





本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。


■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






ロッテノ

投稿者の過去記事

SE2年目に突入。大学では機械工学を専攻していました。製造・工業分野などのAIの活用を深堀して、分かりやすい表現で執筆していきます。

業界/カテゴリー

PAGE TOP