豪データサイエンティストが語る「AIのバイアスは悪くない。悪いのは・・・」

AI開発者とクライアントに忍び寄る、新たな倫理的課題について、気鋭のデータサイエンティストが語る。

マイケル・マッケナ。健康と小売を専門とするGovlawtech所属のデータサイエンティスト。

人間、それは機械学習のバイアスの究極的な源。

なぜかというと、すべての機械学習モデルは人間が作成するからだ。しかも人間は集団としてプロジェクトを進めているから、

  • 組織
  • チーム
  • データサイエンティスト
  • データ収集者

これだけの「バイアス」の要因がある。
おっと、忘れてはいけないのが「データ自体にも固有のバイアスがある」。

バイアスは、最も広い意味で言うと機械学習のバックボーンでもある。

乳がん予測モデルは乳がんの病歴がある女性を材料にして作られているから、場合によっては色々と偏ることになる。

でもここで重要なのは、「そのモデルは偏っているか?」という質問ではない。なぜなら偏っていることはあたりまえだから。

より良い質問をしようと思ったら、AIのヨーロッパ連合グループはモデル構築のためのガイドラインを見ると良いかもしれない。ガイドラインは以下のような内容になっている。

  • 合法的であること
    • すべての法律を尊重すること
    • すべての規制を尊重すること
  • 倫理的であること
    • 原則を尊重すること
    • 価値を尊重すること
  • 堅牢であること
    • 技術的な観点を持つこと
    • 社会環境を考慮すること

歴史的事例

このコンテンツを閲覧するには無料会員ログインが必要です。会員の方はログインして下さい。
新規無料会員登録はこちら

カテゴリーから探す

PAGE TOP