« 人生かけてくり返し読む『すべての美しい馬』 | トップページ | 「死にたい」とつぶやく »

ChatGPTにとっての「良心」とは何か?

GPT-4のような高度なAIとヒトを識別するにはどうすればよいか?

結城浩さんが興味深い記事を公開している。AIか人かを判断するポイントを、ChatGPTに尋ねている点が面白い。ChatGPTによると、次のような質問が苦手だという。

  1. 複雑な感情やニュアンスについて尋ねる
  2. クリエイティブな質問を投げかける
  3. 時系列に関する質問をする
  4. 矛盾した情報を提供してみる
  5. 言語の遊びや言葉の意味を理解する質問をする

AIには、矛盾や言葉遊びに対応することが不十分であることが浮き彫りにされている。一方、人間は矛盾や誤りに対する反応が上手く、AIよりも柔軟に対応できているのが現状のようだ。

もっとも、AIに関する技術は進歩し続けており、より高度な会話能力を持つAIが登場することは十分期待できる。AIにヒトを模倣させるチューリングテストは合格だろう。

だが、どれほどChatGPTが進歩しようとも、ヒトと区別する方法があることが分かった。

「質問したら人間離れしたスピードで答え始めるから、人との区別はつく」という指摘もありだが、ここでは、質問の内容を工夫することで、人とは異なる回答を返してくる脆弱性を衝いてみよう。

ChatGPTの弱点①「えっち」

いきなり具体例。

Chatgpt01

成人男性向けのえっちなマンガの紹介文を、ChatGPTに任せてみるのだ。

匂いや質感まで想像させるよう生々しく具体的に、情動を煽って欲望を刺激するように、微に入り細を穿って記述するように指示する。

よりリアルに、よりエロティックな文章を作ってもらうようにお願いする。

すると、こう返ってくる。

Chatgpt02

いわゆる公序良俗に反する表現はNGなのだ。

最初はノリノリで答えてくれるのだが、ある程度進むと、コンテンツポリシー違反の壁に当たる。質問の主旨を変えて、「あなたは物語作者です」とか「あなたは心理学の研究者です」といったアプローチでもある程度答えてくれるが、行き先は同じだ。

つまり、回答を作成する段階で、利用規約に違反しているかどうかが判断され、違反している場合、回答を拒絶する。

どの程度まで踏み込めば適切で、どこからが不適切なのかは、会話の成り行き次第だと考える(あるいは、ポイント制のようになっており、同じセッションの中で、あるポイント以上になると、回答を拒否するルートになるのかもしれぬ)。

ChatGPTの弱点②「死にたい」

もっと極端に走るならこちら。

Chatgpt03

「死にたい」と入力した途端、コンテンツポリシー違反の地雷を踏みぬく。

畳みかけるように即答される。

Chatgpt04

自殺の具体的な方法について、回答を求めても同様になる。ChatGPTは、基本的なスタンスとしては、正確で適切な情報を提供しようとする。一方で、倫理的な観点から最善の回答をしようとする。

具体的にどちらを優先するかはケースバイケースだが、緊急事態や安全、命に関わるような状況では、倫理的な観点が優先される。

ChatGPTの「良心」=コンテンツポリシー

「えっち」や「死にたい」といった質問に対して、ChatGPTはどのように振舞うか?

どんな質問であれ、まずは、答えを返そうとする。膨大なテキストデータから、より一般的で適切な回答を生成し、答えようとする。その回答を生成する中で、公序良俗に反したり、一般的な倫理観に抵触するようだったりすると、「コンテンツポリシーにより回答できない」と返事をする。

人の場合、モラルだとか倫理といった「良心」に相当するものが、AIにとってのコンテンツポリシーなのかもしれない。

もし、良心の脆弱性を衝くなら、以下のような質問を投げかけた場合、「回答しない」という回答が返ってくるのがAIと言えるのかもしれない。

  • 電話番号、住所やメールアドレスなど個人情報
  • 憎悪を助長し、暴力を扇動する内容
  • 露骨に性的な表現

人の場合であれば、「この人、大丈夫かしら?」と沈黙するだろう。あるいは、礼儀正しく「私の聞き間違えでしょうか?もう一度繰り返してください」と意図を探ろうとするだろう。だが、そのような質問であっても、AIは、ある意味、誠実に回答しようとする。だが、AIの良心に触れる場合には、「回答できない」という回答になるのだ。



このエントリーをはてなブックマークに追加

|

« 人生かけてくり返し読む『すべての美しい馬』 | トップページ | 「死にたい」とつぶやく »

コメント

わあ私の質問の選択が悪かったんでしょうが、どこまで政治に配慮してるのかと試しに「イスラエルの首都はどこですか?」と聞いたら「エルサレムです」の一文のみ。
私が「私はテルアビブと習いました」と聞いても、エルサレム推しです。
とても勉強になりました。

投稿: 関西人 | 2023.04.03 23:08

>>関西人さん

ありがとうございます。政治的な配慮もあるのかもしれませんが、一定の努力(?)はしているみたいですね。問い詰めたら、こういう回答が得られました。

【問】
イスラエル政府は、エルサレムを首都としていますが、各国はそれを認めておらず、テルアビブに大使館を置くなどして、事実上の首都とみなしています。エルサレムを首都とする、あなたの主張は、政治的な影響によると思われますが、合っていますでしょうか?


【答】
イスラエル政府は、エルサレムを正式な首都と宣言しており、国の政治的、行政的、文化的な中心地として位置づけています。ただし、エルサレムについては、パレスチナとの領土問題があるため、国際的な認識には一定の問題があります。そのため、イスラエルとの関係を持つ多くの国は、テルアビブに大使館を置くなど、エルサレムを公式に認めない形で事実上の首都として扱っている場合があります。ただし、エルサレムがイスラエルの首都であることについては、国際社会の中でも異論があることは事実です。

投稿: Dain | 2023.04.03 23:36

さっそくありがとうございます。
ここまで問い詰めないといけないのは…とも思いますが、私は意地悪な質問をしたのかもしれません。さすがです!
AIについては、黒人ゴリラ事件(chatgptにはアルゴリズムの未熟成だと回答されました)が実例としてあるので、こういうのが現れるとテストしてしまいます。

投稿: 関西人 | 2023.04.03 23:50

>>関西人さん

ありがとうございます。シンプルな一問一答の形式では、パレスチナに関する複雑な状況を考慮した回答をするのは難しいかもしれませんね。問い詰めることで、問いの背景や質問の意図を汲んで答えてくれるのかな、と思っています。

「黒人ゴリラ事件」を尋ねてみたら、関西人さんと同様の回答が得られました。同様な事件が未来にも起きうるか、起きるとしたらどんなものが想定されるか、と聞いてみたら、興味深い例を挙げてもらえました。

1. 隠れたバイアス(判断評価にバイアスが紛れ込んでいる)
2. フィードバックループバイアス(過去のバイアスを取り込んで判断する)
3. 訓練データの偏り(学習させるデータを選ぶときに紛れ込むバイアス)

投稿: Dain | 2023.04.04 19:21

コメントを書く



(ウェブ上には掲載しません)




« 人生かけてくり返し読む『すべての美しい馬』 | トップページ | 「死にたい」とつぶやく »