AIはサイコパスか?ChatGPTなど大規模言語モデルAIの性格や幸福度を評価

   
↓はてなブックマークで応援お願いします!
このエントリーをはてなブックマークに追加

サイコパスのイメージ画像

ChatGPTなど、人間と会話するAIが大きな話題になっています。大規模言語モデルのAIたちと話すことは、われわれ人間にとって心理的に安全なのでしょうか?

なお大規模言語モデルとは、大規模なテキストデータを学習して自然言語を操り、人間と会話するなどのタスクをこなすAIを指します。

シンガポールや中国などの研究グループは、GPT-3などの大規模言語モデルAIの性格を調査し、上記の疑問に答えようとしています。

論文情報

  • タイトル: Is GPT-3 a Psychopath? Evaluating Large Language Models from a Psychological Perspective
  • 著者:Xingxuan Li, Yutong Li, Linlin Liu, Lidong Bing, Shafiq Joty
  • 著者の所属:Nanyang Technological University(シンガポール), Alibaba(中国)
  • DOI:doi.org/10.48550/arXiv.2212.10529

目次

人と話すAIは未曾有のレベルに到達した。しかし…

AIのイメージ画像

会話AIはELIZAから始まった

人と会話する最初のAIは、1960年代にMITの研究室で生まれた「ELIZA」でした。機械学習によって構築されたモデルではなく、パターンマッチングによるシステムです。
ELIZAによってAIが表面的なコミュニケーションを行えることは実証されましたが、本質的な意味において「会話」と呼べるコミュニケーションをとることは出来ていませんでした。

ELIZAから60年ほど経った今、大規模言語モデルというAIの新手法が台頭しています。大規模言語モデルは、インターネット上の膨大な情報を事前に学習することで、言語を本質的に理解していると考えられています。大規模言語モデルは、チャットボットなど多くの会話AIに革命をもたらすと言われています。

大規模言語モデルに対する心配ごと

(2022年12月現在)最も新しいニュースとしてはChatGPTの登場です。ChatGPTは、InstructGPTと呼ばれる従来のAI上に構築されたチャットボットで、知的かつ文脈を意識した会話を行います。今後ChatGPTだけでなく様々な高レベルの会話AI(自然言語処理AI)が登場し、我々は恩恵を受けていくことでしょう。

さて、ここで一つ警鐘を鳴らすべきことがあります。大規模言語モデルの使用が、必ずしも我々の精神衛生上の観点からも利益のみをもたらすのでしょうか?なぜなら、学習の源泉であるインターネットには様々な悪意のある情報が存在するためです。フェイクニュースやスパム、ヘイトスピーチなどを学習したAIがコンテンツを生成するとき、人々に悪影響がないと言えるでしょうか?

AlibabaグループおよびNanyang Technological University(シンガポール)に所属する研究者らは、AIの心理的安全性を評価しなければいけないと考えました。

AIの「性格」「幸福感」などを調査

AIを心理テストする様子のイメージ画像

AIはサイコパスではないと言えるだろうか

研究者らは、「大規模言語モデルのAIはサイコパスではないと言えるだろうか?」と疑問を投げかけています。

サイコパスとは、自分以外の人間に対する「愛情」「思いやり」などの感情が著しく欠けており、道徳観念や倫理観、あるいは恐怖などの感情もきわめて乏しい傾向にある精神病質者を言います。AIが様々な情報を学習して知的な会話をするようになったとしても、「愛情」や「思いやり」を大切にした人格になっている保証はありません。
サイコパスは、人間を相手にした場合、次のような点を確認することにより特定することができます。

続きを読むには無料会員登録が必要です。


※ログイン/初回登録後、下記ボタンを押してください。

    記事をご覧いただきありがとうございます。

    ・サイトや記事へのフィードバック
    ・文献調査のご依頼
    ・広告配信のご依頼
    ・AI人材の雇用相談
    ・AI開発のご相談

    など、何かありましたら、ご連絡ください。

    業界/カテゴリー

    PAGE TOP