動画中の人間を切り抜く軽量なAIネットワーク「MODNet」登場【GitHub】

   
↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

関連記事: 「背景合成」がより簡単になる。AI技術「trimapフリー」発表【CVPR2020】

グリーンバックを使用しないアルファマット予測の手法が登場しました!

背景

画像や動画から人物を抽出するためにアルファマットの予測をしますが、リアルタイムで高品質なアルファマットを得るにはグリーンバックが必要です。グリーンバックを使用しない場合、取得にコストがかかる補助入力が必要になるか、計算コストがかかる複数のモデルが必要になります。グリーンバックを使用しない既存のマット化方法は、事前に定義されたtrimap(前地/後地/未知のセグメンテーション)を使用しており、trimapは人間が注釈をつけるにはコストがかかったり、深度カメラで撮影した場合には精度が低くなったりします。そのため、最新の研究ではtrimapへのモデル依存性を排除する、trimapフリーの手法が試みられています。

SenseTimeのZhanghan Keらは、単一の入力画像からリアルタイムで人間の切り抜きを処理できる軽量のネットワークであるMODNetを提案しています。

テクノロジー

従来の方法との比較。DIMをMODNetによる検出として表す。(画像は論文より引用

このコンテンツを閲覧するにはログインが必要です。お願い . あなたは会員ですか ? 会員について

ロッテノ

投稿者の過去記事

SE2年目に突入。大学では機械工学を専攻していました。製造・工業分野などのAIの活用を深堀して、分かりやすい表現で執筆していきます。

業界/カテゴリー

PAGE TOP