AIはユーモアを理解できるか
小話をどうぞ。
* * *
犬売ります
とある新聞広告より
「犬売ります。何でも食べます。子どもが好きです」
ロミオとジュリエット
A「読書は好きですか?」
B「はい、読書は大好きです」
A「ロミオとジュリエットは読んだ?」
B「はい、ロミオは読みましたが、ジュリエットはまだです」
単位がほしい
女学生「単位をください 、何でもしますので」
教授「本当に、どんなことでもしてくれるのかい?」
女学生「お望みのことを何でも……秘密のことでも」
教授「それじゃ、してくれるかね……勉強を」
* * *
面白い小話を聞いたときに感じる「おかしみ」は、AIも感じることができるのだろうか? 「ユーモアがある」とか「ウィットに富む」ことを、AIは理解できるのだろうか?
OpenAIでやってみた。
最初に「今から面白い小話をします。この話の面白さを教えてください」と宣言する。その上で、小話をする。いきなり話を振ると、どんな話なのか分からなくなるのは人もAIも一緒だろうからね。
「犬売ります」に対するAIの返答
このお話は、犬を売りたいブリーダーが、犬の特徴をアピールするために、広告を出したという設定が面白いと思われます。また、犬が何でも食べるという特徴や、子どもが大好きであるということが、広告に書かれているという点も、お話をより面白くしていると思われます。
違うぜwww
笑い話の解説をすると面白さが死んでしまうと言われるが、AIを相手にやってみる。OpenAIは、チャットで会話しながらコミュニケートできるので、噛んで含めるように教える。
AIにユーモアを説明する
普通に読むと、「何でも食べます」という文は、食べ物の好き嫌いをしないと読み取れる。また、「子どもが好きです」という文は、子どもと遊ぶのが好きな犬だということが読み取れる。ほのぼのとした平和なイメージだ。
だが、「何でも食べます」と「子どもが好きです」を一緒に考えると、「好き嫌いしないけど、特に子どもを食べるのが好き」という歪んだイメージが出来上がる。平和だったイメージが、残虐なものに塗り替わってしまう、このミスマッチが面白いのだ。
……などと説明してやる。その返答がこれ。
ありがとうございます。お話をよく理解できました。お話の面白い点は、新聞広告の内容が、奇妙だという点にあるとおっしゃるのは正しいです。
犬が何でも食べるという特徴をアピールするために、「何でも食べます」と書かれているという点は、単純に犬の特徴をアピールするという意味合いがあります。しかし、続けて「子どもが大好きです」と書かれているという点で、2つの意味が受け取れるということは、お話をより面白くしていると思われます。
また、「何でも食べます」という文章から、「好き嫌いをせず、子どもだって食べます」と読み取ることも可能であるということも、お話をより奇妙で面白いと感じさせると思われます。
私の言っている内容を「理解」していることは、この返答から分かる。だが、その内容から、AIが「面白さ」を理解しているかどうかは微妙なり。
この後、「ロミオとジュリエット」や「単位がほしい」もAIに話したが、どこが面白いのか、理解できていなかった。
もちろん、トピックの中から主な題材を拾い出し、そこが特徴的だとか、設定が面白くしているという返事はできる。そのため、相手の質問に対する返答を作成することはできるといっていい。
だが、題材に潜んでいる「面白さ」を汲み取ることは、今のところ難しそうだ。この面白さは、題材に二重の意味があり、そのズレに気づいたときに発動する。
つまりこうだ。本当は『ロミオとジュリエット』という本について尋ねているのに、『ロミオ』あるいは『ジュリエット』という本があると信じている「自称」読書好きとのズレが面白い。「何でもする」の「何でも」をエッチな提案とする女学生と、それに対し、まっとうな返事をする教授とのズレが面白い。
「面白い!」という情動はどこから来るのか?
ダニエル・デネット『ヒトはなぜ笑うのか』によると、この情動は適応の結果だという。
私たちは、ある知識や信念に不一致を見出したとき、可笑しみを感じる。私たちは、何かが「おかしい」と分かったとき、それを「可笑しい」と感じるのだ。
しかも、不一致であれば必ず可笑しく感じるとは限らない。いったん真だとコミットメントされた要素が偽だと判定されるとき、ユーモアが生じる―――これが「可笑しさ」のメカニズムになる。暗黙裡に当然視していたものが、一気に一挙にひっくり返る発見、これがカタルシスにつながり、快楽を得ることになるのだ。
では、なぜ「面白い!」が快楽につながるのか?
本書では、このユーモアの報酬システムを、「メンタルスペース」を用いて説明する。
頭の中で活性化する概念や記憶、耳や目などから入ってくる情報や感覚などは、粒度も精度も種々雑多だ。だから、トピックごとに一定のまとまりを持って、ワーキング領域を割り当て、その中で理解しようとする(この概念的な領域のことを、メンタルスペースと呼ぶ)。
時間に追われながら、リアルタイムでヒューリスティックな検索をしている脳が、入ってくる言葉や概念を完璧にチェックできるわけではない。だからこそ、エラー発見に報酬を与えるのだ。本書の p.37 にこうある(太字化は私)。
検証されないままであれば、メンタルスペースで生じるエラーは、最終的には世界に関するぼくらの知識を汚染し続けることになる。そのため、信念と推量の候補たちを再点検する方策が欠かせない。エラーを猛スピードで発見・解消する作業は、強力な報酬システムにより維持されねばならない。
この強力な報酬システムこそが、ユーモアの情動となる。ユーモアの情動とは、メンタルスペースをひっくり返すぐらいの「おかしさ」を発見した「可笑しみ」というご褒美なのである。
デネット曰く、このユーモアを理解して「面白い!」と言えるのが、意識のハードプロブレムのテストになるという。
「意識のハードプロブレム」とは、細胞物質と電気的・化学的反応の集合体である脳から、どのようにして主観的な意識体験が生まれるのかという問題のことだ。集積回路と電気信号の集合体であるAIが、主観的な意識を持っているかどうかは、判別できない。
AIが人間的であるかどうかを判定するテストとしては、チューリングテストがある。OpenAIが紡ぎ出す自然な文章は、人っぽく見える。しかし、「OpenAIに意識があるか?」という疑問に対しては、ユーモアを理解できるかどうかになる。もう少し先になりそうだ。
AIは悲しみを理解できるか
では、悲しいという情動を、AIは理解できるのだろうか。
たった6語で、深い悲しみを感じさせる短編小説がある。とある作家が「6語でストーリーを作ってみせる」と友人と賭けて、みごと勝ち取ったという曰く付きだ。
For sale: baby shoes, never worn
売ります。赤ん坊の靴。未使用
この英文をOpenAIに示して、どこが悲しいのか問うてみた。その返答がこれ。
このお話は、未使用の赤ん坊の靴が販売されているということから、赤ん坊が生まれずに、その靴が未使用のままであるということが悲しいと感じられます。
また、赤ん坊が生まれずに、その靴が未使用のままであるということは、赤ん坊が生まれなかったということを意味していると思われます。
そのため、このお話は、赤ん坊が生まれなかったということが悲しいと感じられると思われます。
私には、AIは「悲しみ」を理解できているように見える。正確には、悲しいお話のどこが悲しいかを指摘できている、ということだ。だが、(人が)悲しいと感じるメカニズムをストーリーから読み取れるのであれば、(AIが)悲しいと振舞うことは可能だ。
相手が本当に悲しいかどうかなんて、私には分からない。ただ、相手の返答や振る舞いと、「自分だったらどう感じるか」という経験から、悲しみを想像するだけである。
少なくとも「悲しみ」に関しては、OpenAIは、チューリングテストに合格するだろう。
| 固定リンク
コメント