韓国語に特化したAIの言語モデル(BERTで)登場【GitHub】

   

関連記事: Googleより「自然言語処理AIを目に見える形に」ツール登場【GitHub】

韓国語に特化したBERTが登場しました!

BERTが登場して以降、XLNetやRoBERTaなどの研究では多数のパラメータによって事前学習されたモデルを利用しています。このようなモデルは、大規模なハードウェアと膨大なデータ量を持つため、事前学習に時間がかかります。そのため,小さなモデルで比較的性能の良いものを作ることが重要です。

続きを読むには無料会員登録が必要です。


※ログイン/初回登録後、下記ボタンを押してください。

↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

ロッテノ

投稿者の過去記事

SE2年目に突入。大学では機械工学を専攻していました。製造・工業分野などのAIの活用を深堀して、分かりやすい表現で執筆していきます。

業界ごとに記事を読む

PAGE TOP
0
Would love your thoughts, please comment.x
()
x