Apple、吃音を検知するモデルを開発【AI×ヘルスケア】(論文解説)

   
↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

吃音症状が生活に与える影響とは

話すときに同じ音や単語を繰り返してしまう症状はすべての人に共通して見られ、特に吃音症状を持っている人によく見受けられます。頻繁に症状が発生してしまうと、コミュニケーションが困難になり、AlexaやSiriなどの音声認識システムに声を聞き取ってもらえない可能性もあります。

肉声の吃音症状を自動的に検知する機能は、音声認識システムの改善などに役に立ちます。しかしながら、既存の吃音症状の公開データセットは小規模なものです。また、人によって喋り方の流暢さが異なっているので、小規模なデータセットを用いてシステムを構築するのは難しいです。

既存の吃音症状のデータセットには小規模なものであり、モデルを構築できないという課題において、実際にどのような研究が行われているのでしょうか。AppleのColin Leaら研究者の発表を紹介します。

研究者らは、LSTMとCNNを組み合わせることによって、吃音症状検知のモデルを構築しました。

▼論文情報

著者:Colin Lea, Vikramjit Mitra, Aparna Joshi, Sachin Kajarekar, Jeffrey P. Bigham
タイトル:”SEP-28K: A Dataset For Stuttering Event Detection From Podcasts With People Who Stutter”
arxiv
URL:arxiv.org/abs/2102.12394

吃音データセット作成・モデル構築

まずはColin Leaらの研究におけるミッション・手法・結果をまとめました。

続きを読むには無料会員登録が必要です。


※ログイン/初回登録後、下記ボタンを押してください。

業界/カテゴリー

PAGE TOP