★AIDB会員限定Discordを開設いたしました!
会員登録/ログインの上、マイページをご覧ください。
---
---
AI開発者とクライアントに忍び寄る、新たな倫理的課題について、気鋭のデータサイエンティストが語る。
人間、それは機械学習のバイアスの究極的な源。
なぜかというと、すべての機械学習モデルは人間が作成するからだ。しかも人間は集団としてプロジェクトを進めているから、
- 組織
- チーム
- データサイエンティスト
- データ収集者
これだけの「バイアス」の要因がある。
おっと、忘れてはいけないのが「データ自体にも固有のバイアスがある」。
バイアスは、最も広い意味で言うと機械学習のバックボーンでもある。
乳がん予測モデルは乳がんの病歴がある女性を材料にして作られているから、場合によっては色々と偏ることになる。
でもここで重要なのは、「そのモデルは偏っているか?」という質問ではない。なぜなら偏っていることはあたりまえだから。
より良い質問をしようと思ったら、AIのヨーロッパ連合グループはモデル構築のためのガイドラインを見ると良いかもしれない。ガイドラインは以下のような内容になっている。
- 合法的であること
- すべての法律を尊重すること
- すべての規制を尊重すること
- 倫理的であること
- 原則を尊重すること
- 価値を尊重すること
- 堅牢であること
- 技術的な観点を持つこと
- 社会環境を考慮すること
歴史的事例
■サポートのお願い
AIDBを便利だと思っていただける方に、任意の金額でサポートしていただけますと幸いです。
オリジナル記事の新着はSNSから