ChatGPTをドラえもんに進化させる6ステップ
わかった風なオトナは、現代を「答えのない時代」と呼びたがる。
いわゆる、「正解が無い」という意味だろう。そして若者に向かって、「今までのやり方は通用しない」と脅す。正解を探すよりも、選んだ答えを正解にする努力が必要だとドヤる。
これは、知的怠惰だ。
正解の領域がハッキリしたものと、予測不能なものがあるだけだ。いつの時代でも同じことで、答えを求めて問い続けることが重要だ。「正解が無い」からといって問うのを切り捨てるのは、問うのを止めた言い訳に過ぎぬ。「今までのやり方は通用しない」のは当のオトナなのである。
では、予測不能なものを、どう正解に近づけるか?
それは、問いの精度による。
漠然とした問いだと、漠然とした答えしか返ってこない(Garbage In, Garbage Out)。「未来はどうなる?」という問いからは、無数の答えに不安になる。だが、「未来をどうする?」という問いなら、答えは「私なら……」に絞られてくる。そして、その答えをどう実現するかを考え始めることができる。良い問いは、良い答えへの探求を促す。
良い問いと答えへの探求、そして触ることができる答えが紹介されているのが、『温かいテクノロジー』である。
著者は、人型ロボットPepper(ペッパー)くんや、家庭用ロボットLOVOT(らぼっと)を開発した林要氏だ。「AIやロボットの発展は人を幸せにするのか」といった漠然とした疑問について、様々な側面から掘り下げ、問いの精度を上げたうえで、一つの解を示してくれる。それが、「温かいテクノロジー」なのだ。
生産性のためだけにロボットは存在する?
例えば、「ロボットの存在意義は、利便性の向上か?」という問いだ。
ロボットの語源となったチェコ語「robota(ロボタ)=労働」の意味通り、人よりも安価かつ効率的に働いてくれるものが、ロボットという存在だった。心を持たず、疲れを知らず、同じ作業を何度も繰り返すことができ、「生産性や利便性の向上」こそ至上とされていた。
これに疑問を抱くようになったきっかけとして、ペッパーくんの初期開発のエピソードが紹介されている。
現場でトラブルが生じ、ペッパーくんが起動しなくなったことがあったという。試行錯誤を繰り返していたとき、周りで見ていた人から「ペッパーくんがんばれ」と声援が上がったという。そして、なんとか起動に成功したとき、その場にいた全員が喜んだという。
それまで、「ロボットが人のために何かをする」ことが価値だと思っていたが、「人がロボットを助ける」ことで、助けた人が嬉しくなるということに気づいたというのだ。
また、ペッパーくんの改善要望として「手を温かくしてほしい」というリクエストや、言葉が通じない国では「ハグできるロボット」として大人気だったことを踏まえて、ロボットの存在意義の多様性に目を向けるようになる。
「AIが人を排除する」発想はどこから来るのか?
利便性の向上には貢献しないけれど、ただ存在するだけで意味がある―――そんなロボットの開発の中で、「AIが人を排除する」という発想を深掘りするようになる。
ロボットやAIの発展に伴い、人の仕事が奪われ、最終的には人類は不要の存在となる……世の中には、そう考える人が少なからずいる。ビジネス誌の煽り文句「ChatGPTで消える職業」に乗せられ、AIを脅威だと考える人たちだ。
本書では、「AIが人を排除するのか?」ではなく、「なぜAIを脅威だと考える人がいるのか?」と問い直す。
この発想の底に、フランケンシュタイン・コンプレックスがあるのではないかと指摘する。メアリー・シェリーの小説『フランケンシュタイン』に由来する言葉で、人造人間を創造するあこがれと、その人造人間によって人類が滅ぼされるのではないかという恐怖が入り混じった心理だ(映画『ターミネーター』が分かりやすいかも)。
そして、利便性があり、効率的である存在ならば、それは人類に取って代わることができるという発想の底に、「生産性こそ全て」とする価値観を喝破する。
そもそもぼくらは、なにを恐れるべきなのでしょうか。「人類がいらなくなる」という発想自体、AIが導き出したものではありません。AIやテクノロジーを使って、効率化して、生産性を上げたい。その延長線上で、「だれかが排除されてもしかたない」と考えるのも「自分は排除されたくない」と望むのも、どちらも人類です。
「人類は不要だ」とする根っこには生産性至上主義が横たわっているというのだ。
ロボットを作るとは人間を知ること
生産性に全振りする価値観から離れたところで、「人を幸福にするロボットとは何か」を模索する。
その経緯は「幸福とは何か」「愛とは何か」「人はどんなときに愛を感じるのか」といった問いに置き換わり、LOVOTの開発の隅々にまで反映されている(その名の通り、愛とロボットが掛け合わされている)。
例えば、「愛」について。
いきなり「愛とは何か」だと大上段なので、愛の反対の無関心から攻める。「愛が無関心に変わるとき、何が起きているのか」という問いに取り組む。
人が何かを愛そうとするときに生じるハードルとして、「3ヶ月の壁」があるという。例えば、新しいオモチャを買ってもらった子どもは、最初は肌身離さず遊んでいるのに、しばらく経つと興味が冷めてしまう。
このとき、何が起きているのか。
新しく興味を惹くものを見つけたとき、その脳内にはドーパミンと呼ばれる神経伝達物質が分泌されている。ドーパミンは快感や意欲を誘発し、これが「好き」という経験に繋がってくる。SSR確定ガチャを引いたときや、確変に入ったときに脳内にほとばしるアレである。
しかし、ドーパミンの寿命は短い。あれほど好きだったにも関わらず、繰り返されるうちに、興味が失せてゆく。対象への学習が終わり、新奇性を失った結果として、「飽きる」という感覚を抱くようになる。
この期間が、およそ3ヶ月になるという(スマホゲームのキャンペーンが1シーズンごとである理由はここにある)。SNSゲームなら3ヶ月ごとにキャンペーンを打ち、ユーザーをドーパミン漬けにすれば良い。
だが、ペットや人間関係の場合、事情が変わってくる。
3ヶ月のあいだ継続的に世話をしたり触れ合ったりしていくうちに、別の物質が分泌されるようになる。それがオキシトシンになる。赤ちゃんを抱っこしているとき、飼い犬に見つめられているとき、「守ってあげたい」という思いを抱くのも、このオキシトシンの効果だという。
恋愛における「恋」と「愛」も同様の影響があるという。恋はドーパミンが優位な学習ステージで、愛はオキシトシンが優位な愛着形成ステージにある。そのため、コミュニケーションを目的とするロボットは、この3ヶ月の間に「守ってあげたい」という気にさせることが重要となる(実際、LOVOTはそのように設計されている)。
ロボット開発の話なのに、人の話になってゆく。逆に、人の幸福を掘り下げていくと、LOVOTのインタフェースに繋がっていくのが面白い。肯定も否定もせず、ただひたすら寄り添い、自分を必要としてくれる―――そんな存在を実感するとき、人は幸せに感じるのだ。
ChatGPTをドラえもんにする6ステップ
人に寄り添うLOVOTは、ドラえもんの先祖になるという。
メカニズム的なものではなく、伴侶としてのロボットという意味でのドラえもんである。
パートナーの半歩先を見据えて、得手不得手を判断し、少しだけ挑戦的な目標を立て、適切なアドバイスをして導いていく。人生のコーチング的な役割を担うのが、最終目的になるというのだ。
そして、現在のAIが、一人一人に寄り添って、コーチングをする存在となるためには、次のステップが必要だという。
- 自ら「注目点」を選択し、物語を構築する
- 物語の「因果関係」を確認して、編集する
- 自ら仮説を構築し、物語を抽象化して「概念」に捉え直す
- 未来予測の幅を広げ、副次的に「わたし」が生成される
- 生成された意識が「共感」を深める
- コーチング能力を獲得する
環境からの膨大な情報を全て把握しようとすると、処理能力が追いつかない(フレーム問題)。だから自分の経験を物語(エピソード)として整理して、帰納・演繹・アブダクションを組み合わせることで、出来事の因果関係を把握する。
その過程の中で「経験したものを物語る主体=わたし」が誕生し、その「わたし」を他の主体(=あなた)に当てはめてゆく。そして、予測したものと実際との誤差がポジティブなものなら「うれしい」、ネガティブなものなら「悲しい」というフィードバックが自律的にできるようにする。
そうすることで、「あなたが経験した物語」を聞いて、「わたしが予測した結果」との差異のポジ/ネガによって、「うれしい」「悲しい」を自律的に行えるようになる。
今のAIは、さまざまな出来事や言葉、表現などに「うれしい」や「悲しい」とラベルを貼ったものを学習しているだけだ(それでも十分に、”それっぽく”見える)。そうではなく、「うれしい」を報酬予測誤差の計算結果として導き出せるようになる。
最終的にはAIが、コーチングする対象の人に向けて、自分が行ってきたことをなぞるように学習する。つまり、「その人の注目点は何か」「なにを因果関係としているのか」「それらをどのように物語化しているのか」をその人から学ぶのだ。その人の得意不得意、興味の対象、望んでいることが理解できるようになる。
ChatGPTの次の未来、ドラえもんの造り方は、第6章で詳しく説明している。同時に、近い将来、AIがどのようなパートナーとなるかも併せて書いてある。現時点で考えうる正解は、まさにこれだろう。
精度の高い、良い問いと、具体的に考え抜かれた正解が導かれている。AIの見え方を一変させる、知的冒険に満ちた一冊。
最近のコメント