差別的発言はAIによって「告発」される?
ソーシャルメディアを通じて、世界中の人々が情報発信をし合い、つながることができるようになった。ソーシャルメディアは良好なコミュニケーションを促す一方で、人を傷つける武器にもなりうる。近年、人種や民族などの変えることが難しい属性を理由に特定の集団を非難する「ヘイトスピーチ」が問題視されている。誹謗中傷は犯罪であり、ヘイトスピーチの特定や発生予防は社会課題の1つとなっている。

スペインのマドリードにあるマドリード自治大学のJuan Carlos Pereira-Kohatsuら研究者は、ソーシャルメディア上で繰り広げられるヘイトスピーチ問題に着目し、膨大な量の投稿からヘイトスピーチを選別するシステムの開発を試みた。結果、従来の選別手法に比べてより効果的なモデルが構築できたとのことだ。
根拠もつけて、より正確にヘイトスピーチを見抜くシステム”HaterNet ”
Juan Carlos Pereira-Kohatsuらの研究のポイントは以下の通りだ。
オリジナル記事の新着はSNSから