豪データサイエンティストが語る「AIのバイアスは悪くない。悪いのは・・・」

   
★AIDB会員限定Discordを開設いたしました! 会員登録/ログインの上、マイページをご覧ください。
★コンサルティングサポート(調査・研修・開発支援)をご希望の方はお問合せください。

AI開発者とクライアントに忍び寄る、新たな倫理的課題について、気鋭のデータサイエンティストが語る。

マイケル・マッケナ。健康と小売を専門とするGovlawtech所属のデータサイエンティスト。

AIDBの全記事が読み放題のプレミアム会員登録はこちらから↓

人間、それは機械学習のバイアスの究極的な源。

なぜかというと、すべての機械学習モデルは人間が作成するからだ。しかも人間は集団としてプロジェクトを進めているから、

  • 組織
  • チーム
  • データサイエンティスト
  • データ収集者

これだけの「バイアス」の要因がある。
おっと、忘れてはいけないのが「データ自体にも固有のバイアスがある」。

バイアスは、最も広い意味で言うと機械学習のバックボーンでもある。

乳がん予測モデルは乳がんの病歴がある女性を材料にして作られているから、場合によっては色々と偏ることになる。

でもここで重要なのは、「そのモデルは偏っているか?」という質問ではない。なぜなら偏っていることはあたりまえだから。

より良い質問をしようと思ったら、AIのヨーロッパ連合グループはモデル構築のためのガイドラインを見ると良いかもしれない。ガイドラインは以下のような内容になっている。

  • 合法的であること
    • すべての法律を尊重すること
    • すべての規制を尊重すること
  • 倫理的であること
    • 原則を尊重すること
    • 価値を尊重すること
  • 堅牢であること
    • 技術的な観点を持つこと
    • 社会環境を考慮すること

歴史的事例

本記事を読むにはAIDBのアカウントが必要です。


※ログイン/初回登録後、下記ボタンを押してください。







■サポートのお願い
AIDBを便利だと思っていただけた方に、任意の金額でサポートしていただけますと幸いです。






業界/カテゴリー

PAGE TOP