Google、多言語にTransformerを適用した自然言語処理モデル発表【GitHub】

   
↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

関連記事:医療の用語に対応した自然言語処理パッケージ「MedCAT」登場!【GitHub】

多言語に対応した最先端の自然言語処理モデルが登場しました!

背景

自然言語処理(NLP)モデルの「Text-to-Text Transfer Transformer」(T5)は、統一されたテキストからテキストへの変換形式とスケールを利用して、様々な英語NLPタスクにおいて最先端の結果を達成しています。しかし、T5を含む最近の言語モデルの多くは英語のテキストのみで事前に訓練されており、世界人口の約80%が英語を話さないことを考えると、これでは使用が著しく制限されてしまいます。

Google ResearchのLinting Xueらは、 T5を多言語に対応させたモデルであるmT5を提案しています。

テクノロジー

続きを読むには無料会員登録が必要です。


※ログイン/初回登録後、下記ボタンを押してください。

    記事をご覧いただきありがとうございます。

    ・サイトや記事へのフィードバック
    ・文献調査のご依頼
    ・広告配信のご依頼
    ・AI人材の雇用相談
    ・AI開発のご相談

    など、何かありましたら、ご連絡ください。

    ロッテノ

    投稿者の過去記事

    SE2年目に突入。大学では機械工学を専攻していました。製造・工業分野などのAIの活用を深堀して、分かりやすい表現で執筆していきます。

    業界/カテゴリー

    PAGE TOP