AIを調べると人間社会が見えてくる? ―― 東京大学「AIと人文学」シンポジウムまとめ
東京大学のホームカミングデイの企画「AIと人文学」を聴講してきた。
- フレームを超えるAI:黒澤明『天国と地獄』を俎上に、「垣間見」「漏れ聞こえ」といった人の所作から、フレーム問題を再定義する(阿部公彦 教授)
- 知の外在化と向き合う:井筒俊彦が描く学者像から「開かれた専門馬鹿」になるための「驚き(タウマイゼン)」の提案(古田徹也 准教授)
- 人外センシングAI:小説・映画・会話等を通じた間接体験を学習させた上で、超音波や赤外線など、人に無いセンシングを装備して感受性を育てる研究(佐藤淳 教授)
どれも興味深いものばかりで、2時間が一瞬だった。ツッコミというか質問欲がもりもり湧いてきたのは私だけではなく、質疑応答は15分では足りなかった。ゲーム実況みたいにコメントで質問受けながら実況形式にしたら、すごいコンテンツになるだろう(人はそれを講義と呼ぶ)。
中でも興味深かったのが、社会に内在する無意識的な観念を、生成AIを用いて可視化する試み「AI社会調査」(瀧川裕貴 准教授)だ。
これまで、社会学での調査は、社会を「外側」から観察する手法が中心だった。統計調査やインタビュー、アンケートなどを通じて、家族・学校・メディア・コミュニティ等から内面化された価値観や信念を、間接的に推定するしかなかった。
しかし近年、生成AIの発展によって状況が変わりつつある。
AIは膨大な言語データに基づいて応答を生成するため、その言語モデルには、社会に浸透している価値観や前提、ステレオタイプがそのまま埋め込まれている可能性がある。言い換えれば、AIに問いかけることで、社会がどのような信念やバイアスを内包しているのかを、半ば「鏡」に映し出された像のように、直接観察できるというわけだ。
もしAIの応答に偏りが見られるなら、それはAIに「偏りがある」からではなく、AIが学習したデータ、すなわち社会そのものに偏りがあることを示唆する。AIは単に、それを増幅し、明るみに引き出す役割を果たしているといえる。
生成AIを、社会に沈殿した価値体系を可視化する媒体(メディウム)とする研究だ。
いくつかの研究例が投影されたのだが、話に夢中になってちゃんと記録していなかったのが痛恨の極み(泣)。かろうじて残った走り書きからすると、これ(のはず)。
言語に埋め込まれたバイアス
Gender stereotypes are reflected in the distributional structure of 25 languages(Molly Lewis & Gary Lupyan, 2020) [URL]
これは、言葉にある暗黙のステレオタイプを調べる試みだ。英語、フランス語、スペイン語、日本語など25言語を対象として、その言語における単語どうしの統計的な関係を分析する。
英語の例だとこうなる。「近い」とは統計的によく一緒に出現しやすいという意味で、単語同士の共起関係と呼ぶ。
- “nurse(看護師)” という単語は “woman(女性)” と近い
- “engineer(技師)” という単語は “man(男性)” と近い
この共起関係から、その言語において、どんな職業や形容詞が、どちらの性に結びついているかを数値化する。
次に、約60万人の、心理実験データを使い、各言語の話者が「男性 ― 科学」「女性 ― 家庭」等の無意識的な連想を持っているかを測定する。
そして、各言語の統計的な性別のバイアスと、実験で導き出した人の心理的性別バイアスを比較したら、強い相関が見つかったというレポートだ。
「言語の中で統計的に意味が近ければ、実際にそういう想起をしがち」という、当然といえば当然のことなのだが、この社会的無意識を数値として見えるようにしたのは大きい。言語は単なる「表現手段」ではなく、心理的なジェンダーバイアスの再生産装置でもあることを、定量的に示した研究ともいえる。
そして、言語モデルを学習に用いている限り、言語の中の統計構造が、AIの思考パターンに反映される。「AIはバイアスまみれ」という指摘は耳にするが、私たちが用いている言語そのものに、何かしらの偏りがある(だからダメだとか、だから良いとか開き直るのではなく、数値として示せるのだから、どう補正するかの話になる。事実と価値判断は別なので、自然主義的誤謬の罠に陥らないように)。
政治的分断をシミュレートする
Can We Fix Social Media? Testing Prosocial Interventions using Generative Social Simulation(Maik Larooij & Petter Törnberg)2025 [URL]
これは、SNSそのものをAIの中に再現するという試みになる。
シミュレーション内では、twitterのように、各個人(=エージェント)が投稿・リツイート・フォローを行えるようになっている。これらのエージェントには大規模言語モデル(LLM)によって「人格(ペルソナ)」が与えられている。年齢・性別・教育水準・政治的傾向といった属性が設定され、エージェントはそれらに沿って「自分の意見」を形成し、発言し、リツイートし、フォローする。
この「AI社会」をしばらく放置しておくと、現実と同じような現象が自然に立ち上がってくる。例えば、
- 似た者同士が集まって同じような発言が繰り返されるエコーチェンバー
- 少数のエージェントに影響力が集中するインフルエンサー階層化
- エコーチェンバーにより発言内容がより過激で攻撃的になる傾向
いつもの殺伐としたタイムラインが、そのままモデル内部で自己組織的に発生する。「そりゃそうだろうな」と思うかもしれないが、面白いのはここからだ。
シミュレーションである以上、途中で介入できる。例えば、
- 過激化した発言者をネットワークから一時的に切断する
- 一定期間、リツイートに制限をかけて拡散を防ぐ
現実に運営がやったら大炎上するような介入を、安全に実験として行える(数年前、奇妙な?TLが形成された時期があったが藪の中だし、今となっては検証しようがない)。介入した結果、全体の議論がどう変化するか、動的に観察することができる。
もちろん、実際のSNSとは異なるものの、「SNSはどこまで設計で制御できるのか」がテーマになる。SNSで起きている分断は、人の性格や属性だけではなく、アルゴリズムによって再生産(強化)される要素もある。完全な解消は難しいかもしれないが、一定の介入方法は模索できるというわけだ。
AIは「人の代わりに考える便利ツール」ではなく、人間社会が無意識に抱えていた前提や価値判断を映し出す「鏡」としても使えることを、改めて思い知らされた会だった。
| 固定リンク



コメント