Google、多言語にTransformerを適用した自然言語処理モデル発表【GitHub】

   

関連記事:医療の用語に対応した自然言語処理パッケージ「MedCAT」登場!【GitHub】

多言語に対応した最先端の自然言語処理モデルが登場しました!

↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

背景

自然言語処理(NLP)モデルの「Text-to-Text Transfer Transformer」(T5)は、統一されたテキストからテキストへの変換形式とスケールを利用して、様々な英語NLPタスクにおいて最先端の結果を達成しています。しかし、T5を含む最近の言語モデルの多くは英語のテキストのみで事前に訓練されており、世界人口の約80%が英語を話さないことを考えると、これでは使用が著しく制限されてしまいます。

Google ResearchのLinting Xueらは、 T5を多言語に対応させたモデルであるmT5を提案しています。

テクノロジー

続きを読むには無料会員登録が必要です。


※ログイン/初回登録後、下記ボタンを押してください。

ロッテノ

投稿者の過去記事

SE2年目に突入。大学では機械工学を専攻していました。製造・工業分野などのAIの活用を深堀して、分かりやすい表現で執筆していきます。

業界ごとに記事を読む

PAGE TOP
0
Would love your thoughts, please comment.x
()
x