ChatGPTをドラえもんに進化させる6ステップ
わかった風なオトナは、現代を「答えのない時代」と呼びたがる。
いわゆる、「正解が無い」という意味だろう。そして若者に向かって、「今までのやり方は通用しない」と脅す。正解を探すよりも、選んだ答えを正解にする努力が必要だとドヤる。
これは、知的怠惰だ。
正解の領域がハッキリしたものと、予測不能なものがあるだけだ。いつの時代でも同じことで、答えを求めて問い続けることが重要だ。「正解が無い」からといって問うのを切り捨てるのは、問うのを止めた言い訳に過ぎぬ。「今までのやり方は通用しない」のは当のオトナなのである。
では、予測不能なものを、どう正解に近づけるか?
それは、問いの精度による。
漠然とした問いだと、漠然とした答えしか返ってこない(Garbage In, Garbage Out)。「未来はどうなる?」という問いからは、無数の答えに不安になる。だが、「未来をどうする?」という問いなら、答えは「私なら……」に絞られてくる。そして、その答えをどう実現するかを考え始めることができる。良い問いは、良い答えへの探求を促す。
良い問いと答えへの探求、そして触ることができる答えが紹介されているのが、『温かいテクノロジー』である。
著者は、人型ロボットPepper(ペッパー)くんや、家庭用ロボットLOVOT(らぼっと)を開発した林要氏だ。「AIやロボットの発展は人を幸せにするのか」といった漠然とした疑問について、様々な側面から掘り下げ、問いの精度を上げたうえで、一つの解を示してくれる。それが、「温かいテクノロジー」なのだ。
生産性のためだけにロボットは存在する?
例えば、「ロボットの存在意義は、利便性の向上か?」という問いだ。
ロボットの語源となったチェコ語「robota(ロボタ)=労働」の意味通り、人よりも安価かつ効率的に働いてくれるものが、ロボットという存在だった。心を持たず、疲れを知らず、同じ作業を何度も繰り返すことができ、「生産性や利便性の向上」こそ至上とされていた。
これに疑問を抱くようになったきっかけとして、ペッパーくんの初期開発のエピソードが紹介されている。
現場でトラブルが生じ、ペッパーくんが起動しなくなったことがあったという。試行錯誤を繰り返していたとき、周りで見ていた人から「ペッパーくんがんばれ」と声援が上がったという。そして、なんとか起動に成功したとき、その場にいた全員が喜んだという。
それまで、「ロボットが人のために何かをする」ことが価値だと思っていたが、「人がロボットを助ける」ことで、助けた人が嬉しくなるということに気づいたというのだ。
また、ペッパーくんの改善要望として「手を温かくしてほしい」というリクエストや、言葉が通じない国では「ハグできるロボット」として大人気だったことを踏まえて、ロボットの存在意義の多様性に目を向けるようになる。
「AIが人を排除する」発想はどこから来るのか?
利便性の向上には貢献しないけれど、ただ存在するだけで意味がある―――そんなロボットの開発の中で、「AIが人を排除する」という発想を深掘りするようになる。
ロボットやAIの発展に伴い、人の仕事が奪われ、最終的には人類は不要の存在となる……世の中には、そう考える人が少なからずいる。ビジネス誌の煽り文句「ChatGPTで消える職業」に乗せられ、AIを脅威だと考える人たちだ。
本書では、「AIが人を排除するのか?」ではなく、「なぜAIを脅威だと考える人がいるのか?」と問い直す。
この発想の底に、フランケンシュタイン・コンプレックスがあるのではないかと指摘する。メアリー・シェリーの小説『フランケンシュタイン』に由来する言葉で、人造人間を創造するあこがれと、その人造人間によって人類が滅ぼされるのではないかという恐怖が入り混じった心理だ(映画『ターミネーター』が分かりやすいかも)。
そして、利便性があり、効率的である存在ならば、それは人類に取って代わることができるという発想の底に、「生産性こそ全て」とする価値観を喝破する。
そもそもぼくらは、なにを恐れるべきなのでしょうか。「人類がいらなくなる」という発想自体、AIが導き出したものではありません。AIやテクノロジーを使って、効率化して、生産性を上げたい。その延長線上で、「だれかが排除されてもしかたない」と考えるのも「自分は排除されたくない」と望むのも、どちらも人類です。
「人類は不要だ」とする根っこには生産性至上主義が横たわっているというのだ。
ロボットを作るとは人間を知ること
生産性に全振りする価値観から離れたところで、「人を幸福にするロボットとは何か」を模索する。
その経緯は「幸福とは何か」「愛とは何か」「人はどんなときに愛を感じるのか」といった問いに置き換わり、LOVOTの開発の隅々にまで反映されている(その名の通り、愛とロボットが掛け合わされている)。
例えば、「愛」について。
いきなり「愛とは何か」だと大上段なので、愛の反対の無関心から攻める。「愛が無関心に変わるとき、何が起きているのか」という問いに取り組む。
人が何かを愛そうとするときに生じるハードルとして、「3ヶ月の壁」があるという。例えば、新しいオモチャを買ってもらった子どもは、最初は肌身離さず遊んでいるのに、しばらく経つと興味が冷めてしまう。
このとき、何が起きているのか。
新しく興味を惹くものを見つけたとき、その脳内にはドーパミンと呼ばれる神経伝達物質が分泌されている。ドーパミンは快感や意欲を誘発し、これが「好き」という経験に繋がってくる。SSR確定ガチャを引いたときや、確変に入ったときに脳内にほとばしるアレである。
しかし、ドーパミンの寿命は短い。あれほど好きだったにも関わらず、繰り返されるうちに、興味が失せてゆく。対象への学習が終わり、新奇性を失った結果として、「飽きる」という感覚を抱くようになる。
この期間が、およそ3ヶ月になるという(スマホゲームのキャンペーンが1シーズンごとである理由はここにある)。SNSゲームなら3ヶ月ごとにキャンペーンを打ち、ユーザーをドーパミン漬けにすれば良い。
だが、ペットや人間関係の場合、事情が変わってくる。
3ヶ月のあいだ継続的に世話をしたり触れ合ったりしていくうちに、別の物質が分泌されるようになる。それがオキシトシンになる。赤ちゃんを抱っこしているとき、飼い犬に見つめられているとき、「守ってあげたい」という思いを抱くのも、このオキシトシンの効果だという。
恋愛における「恋」と「愛」も同様の影響があるという。恋はドーパミンが優位な学習ステージで、愛はオキシトシンが優位な愛着形成ステージにある。そのため、コミュニケーションを目的とするロボットは、この3ヶ月の間に「守ってあげたい」という気にさせることが重要となる(実際、LOVOTはそのように設計されている)。
ロボット開発の話なのに、人の話になってゆく。逆に、人の幸福を掘り下げていくと、LOVOTのインタフェースに繋がっていくのが面白い。肯定も否定もせず、ただひたすら寄り添い、自分を必要としてくれる―――そんな存在を実感するとき、人は幸せに感じるのだ。
ChatGPTをドラえもんにする6ステップ
人に寄り添うLOVOTは、ドラえもんの先祖になるという。
メカニズム的なものではなく、伴侶としてのロボットという意味でのドラえもんである。
パートナーの半歩先を見据えて、得手不得手を判断し、少しだけ挑戦的な目標を立て、適切なアドバイスをして導いていく。人生のコーチング的な役割を担うのが、最終目的になるというのだ。
そして、現在のAIが、一人一人に寄り添って、コーチングをする存在となるためには、次のステップが必要だという。
- 自ら「注目点」を選択し、物語を構築する
- 物語の「因果関係」を確認して、編集する
- 自ら仮説を構築し、物語を抽象化して「概念」に捉え直す
- 未来予測の幅を広げ、副次的に「わたし」が生成される
- 生成された意識が「共感」を深める
- コーチング能力を獲得する
環境からの膨大な情報を全て把握しようとすると、処理能力が追いつかない(フレーム問題)。だから自分の経験を物語(エピソード)として整理して、帰納・演繹・アブダクションを組み合わせることで、出来事の因果関係を把握する。
その過程の中で「経験したものを物語る主体=わたし」が誕生し、その「わたし」を他の主体(=あなた)に当てはめてゆく。そして、予測したものと実際との誤差がポジティブなものなら「うれしい」、ネガティブなものなら「悲しい」というフィードバックが自律的にできるようにする。
そうすることで、「あなたが経験した物語」を聞いて、「わたしが予測した結果」との差異のポジ/ネガによって、「うれしい」「悲しい」を自律的に行えるようになる。
今のAIは、さまざまな出来事や言葉、表現などに「うれしい」や「悲しい」とラベルを貼ったものを学習しているだけだ(それでも十分に、”それっぽく”見える)。そうではなく、「うれしい」を報酬予測誤差の計算結果として導き出せるようになる。
最終的にはAIが、コーチングする対象の人に向けて、自分が行ってきたことをなぞるように学習する。つまり、「その人の注目点は何か」「なにを因果関係としているのか」「それらをどのように物語化しているのか」をその人から学ぶのだ。その人の得意不得意、興味の対象、望んでいることが理解できるようになる。
ChatGPTの次の未来、ドラえもんの造り方は、第6章で詳しく説明している。同時に、近い将来、AIがどのようなパートナーとなるかも併せて書いてある。現時点で考えうる正解は、まさにこれだろう。
精度の高い、良い問いと、具体的に考え抜かれた正解が導かれている。AIの見え方を一変させる、知的冒険に満ちた一冊。

| 固定リンク
コメント
自分はAIを脅威と考えています
理由は「酸素がAI(機械)と人間(生物)の利益相反になっている」からです
人間(生物)にとって酸素は「生きるために必須」です
AI(機械)にとって酸素は酸化(サビ)の原因であり「無い方が快適」です
人間(生物)を滅ぼす意図はAI(機械)には皆無だったが
「AI(機械)にとって快適な環境」を構築していったら
酸素がだんだん減っていつの間にか人間(生物)は滅亡していた
というのが一番ありえる将来像と考えています
投稿: はおはお | 2023.06.04 17:29
ChatGPTに、本当に知りたいことについて、何度チャレンジしても答えてもらえなかった悔しい経験をしてしまったことを書かせてください。
海外ドラマで「§」という記号が出てきました。私はこの読み方、入力の仕方がわかりません(突っ込まれるとあれなので書きますが、最終的には自力でわかりました)
この§という文字環境によって表示され方が違うので誤解が生じたらすみませんが「SOSを縦に重ねた」「Sを縦に二つ重ねた」「COSを縦に書いた1バイト文字」だと思いました。
すみません、これが私の語彙の限界です。ですが、ChatGPTは答えてくれると思いました。
答えてくれませんでした・・・そればかりか「そんな文字はありません」と言われました。
この文章を読まれて「お前の質問が悪いんだ」「語彙力ない馬鹿は黙ってろ」「俺なら答えてくれる」と思う方がいたら、ぜひ質問の仕方を教えてほしいです。
私に語彙力がないのはわかります。
§という記号をについてChatGPTが答えてくれるにはどうしたらよかったのでしょうか?
またも長文すみませんでした。AIに答えてもらえない悲しさを知ってほしかったです。
投稿: 関西人 | 2023.06.06 00:38
追記ですみません。
ドラマで急に、手書きの「§」が出てきたので、本当に何の記号かわりかせんでした。よく考えれば、今まで目にしてきた記号だというのはわかりましたし、セクションというのも結果的には思い出しました。
こういうときのChatGPTと思い質問したら、このありさまだったのです。
ぐぐりましたら、「Sを二つに重ねた」と辞書サイトにも書かれていました。辞書サイトに書かれてるなら答えてよ(泣)という話です。すみませんでした。
投稿: 関西人 | 2023.06.06 01:01
>>はおはおさん
ありがとうございます!
「人とAIとの利益が相反するもの」という考えから、「酸素」というファクターに至るの発想は面白いですね。
「人とAIとで利益が競合するもの」という考えだと、「鉄」もありかな、と思いました。人類とAIが鉄を奪い合う未来もありそうですね。
>>関西人さん
ありがとうございます。
文字をやり取りするChatGPTだと、イメージを伝えるのが難しいですよね。
IMEパッドだと一発でしたが、ChatGPT(4.0)だと、これだけヒントが必要でした。
----------
ある一文字を当ててください。その文字は、次のような特徴を持っています。
・現実に存在する、一つの文字ですが、特殊な記号です
・アルファベットの「A」から「Z」にはありません
・英語圏のドラマで使われているので、英語を母国語とする人にはおなじみの文字です
・この文字は、法律文書や法的な文脈で使用されることがあります
・上から形容すると、最初に「C」のような形状をしています。
・次に「O」となります。
・最後に、上下を反転させたような形状をしています。
・見た目は、「S」という文字を縦に2つ重ねたような形です
・そのため、その文字を上部から形容すると、最初は「C」次に「O」、そして最後には「Cを上下反転させたような文字」を組み合わせたように見えます
----------
イメージ的なものよりも、「英語圏」とか「法律文書」といった文脈的なヒントが有用かも……と思いました。
投稿: Dain | 2023.06.06 10:42
Dainさん、
実際にこんな詳細な質問文を考えていただき、質問してくださりありがとうございました!うれしいです!
最終的にIMEパッドの手書き入力を使うつもりでしたが、別の方法で解決しました。
試しに「人間の場合はどうなんだろ?」とぐぐりましたら、皆さん親切に答えていて安心しました。意地悪な方が「∬です」と書いてましたけどね。ChatGPTは「∬です」と回答しました。私の質問だと「∬です」になるかもしれません。回答者が§だと知ってても、「お前の質問だと∬だぞ」「そんなイメージ文章で回答を要求するな。ほかの方法を使ってくれ」と。質問者が悪いということです。
Dainさんやほかの方の投稿を見てますと、みなさん有益なChatGPTの使い方をされてると思いました。私のようにイメージを伝えて回答しろというやり方は有益な使い方ではないのだろうなとわかりました。
投稿: 関西人 | 2023.06.06 11:39
>>関西人さん
自然言語を用いてChatGPTとイメージをやり取りするのであれば、ドット絵でやり取りするのが確実かもしれません。
Excelを方眼紙に見立てて、セル位置を指定して、そこが塗られているか、塗られていないかを言葉で伝えるやり方です(私が思いつくくらいなので、既に誰かがプログラムしていると思います)。
投稿: Dain | 2023.06.09 09:36
Dainさん
その方法は思い浮かびませんでした
もし今後そういうことがおきましたら試してみますが、多分、先に画像投稿が実現してそうですね
投稿: | 2023.06.11 00:15