信頼できるAIシステムを作る3つの指針(OpenAI論文)

   
↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

今、開発者の責任を問う

近年のAIの進歩は目覚ましく、さまざまな領域で活用されています。しかしその技術の進歩の速さに対して、技術の安全性や信頼性には不透明な部分が多く存在しています。
実際に、世界の大企業はシステムの不透明性に対して市民から説明を求められたり、システムの変更を求められたりすることがしばしばあります。
開発者がユーザーや顧客、社会全体に対して責任を持ってAIを構築しているという信頼を得るためには、その責任を示す行動を実証するメカニズムに焦点を当てる必要があります。

AIや政策などの学術的研究者、産業界の研究者、政策立案者など、AIの開発に関わるさまざまな機関の専門家によってAIシステムの検証可能性の論文が発表されました。

「検証可能性」を高める必要がある

著者らは、AIシステムの安全性、セキュリティ、公正性、プライバシー保護に関して開発者の主張を検証するための様々な手段について提言を行っています。
例えば開発者が直面しうる、次のような疑問に答えられるようなものです。

  • 機密文書の機械翻訳に用いるAIシステムが保証するプライバシー保護のレベルについて、開発者の主張を検証できるか?
  • 規制当局は、自動運転が起こした事故の原因を追跡することができるか?自動車メーカーの安全性の主張は、どのような基準で比較されるべきか?
  • 産業界ほどのコンピューティングリソースを持たない学者は、大規模なAIシステムにが及ぼす影響について公平な研究を行うことができるか?
  • AI開発者は、特定の分野において競合他社が優位に立つために手抜きすることはなく、最善の方法でシステム構築を行っていると確認できるか?

本論文での提言は、2つの効果を期待できます。

  • AIシステムの特性に関する主張を照明するために、AI開発者自身が利用できる選択肢を増やすこと。
  • ユーザー、政策立案者、市民など、他の利害関係者がAI開発者に求める要求の具体性と多様性を高める。

本報告書では、AIのシステムや開発プロセスを構成する3つの要素である「制度」「ソフトウェア」「ハードウェア」の観点からメカニズムを整理しています。

下記に、それぞれのメカニズムに関連する提言をまとめたリスト示します。

続きを読むには無料会員登録が必要です。


※ログイン/初回登録後、下記ボタンを押してください。

業界/カテゴリー

PAGE TOP