★AIDB会員限定Discordを開設いたしました!
ログインの上、マイページをご覧ください。
Googleを運営する米Alphabet社は自サービスGoogle Cloudを通して、機械学習モデルが決定を下した理由を説明するツールキットをリリースしました。
AIの不透明性を排除したい
HRや法執行機関など、人々に直接影響を与える分野では、AIの透明性と説明可能性の問題がしばしば取り沙汰されてきました。今回のGoogleの取り組みの狙いは、不透明さによってAIの導入が足踏まれる分野にメスを入れることです。
このような大規模なプロジェクトの背景には、世界最大のパブリッククラウドベンダーとして「将来のアルゴリズムトレーニングのほとんどがクラウドデータセンターで行われる」という可能性に賭けていることが挙げられます。
「機械学習モデルがどのように結論に達するかを、人間が理解できるようになります。これはとても嬉しいことです」と同社はブログで述べています。
Googleはすでに、主に開発者とデータサイエンティストを対象とした、ツールキットの使用法を詳述した27ページのホワイトペーパーを公開しました。
「信頼性」問題の核心
■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。