東京大学大学院総合文化研究科教授 池上高志氏に聞く
(1)知能から生命へ人工生命の最前線
桐原永叔(IT批評編集長)
心は外からやってくる──相互交換する心
桐原 永叔(以下、桐原) それが知性や知能というもののイメージなのか、人工知能については多くの人が永遠性や普遍性を得ることを理想としているようにみえます。一方で、これが人工生命となると、生命らしさはそもそもその有限性、個別性にあるともいえますよね。
池上 AIは、少なくともこれまで、ひとの道具の延長としてとどまって、道具が自分の意思や自分の欲を持たれては困ると考えているんですね。鳥を見て飛行機をつくるAIは、鳥の翼を参考にしたりしたうえで、それを最適化してより速く飛ぶものをつくったりする。一方、ALifeのような発想でつくった飛行機は、鳥そのもののような飛行機で、お腹が空いたら途中で餌を食べに行ってしまうし、調子が悪かったら休んでしまいます。それが欲求や意図を持つということですから、そんな不便な飛行機は使えないと思う。でも、とても重要なことが 1つあります。飛行機は落ちるけれど、鳥は落ちないということです。鳥は自己保存能力が強いから、お腹がすいたら食べるし、疲れたら休む。飛行機にそのような賢さを求めるとなると、それは生命性を求めることになります。だから生命の技術が必要なんです。
桐原 有限であるがゆえに生命が求める時間秩序が、倫理・道徳と深く関係するように思います。
池上 タフツ大学にいる友人のマティウス・シュルツが、ある星にロボットと一緒に行って鉱物を採取して地球に戻ってくるという仮想実験の話をしてくれたことがあります。そのときに、ロボットが常にひとの命令だけを聞くロボットと働いた場合と、自分の燃料も気にするロボットと働いた場合では、自分の燃料を気にするロボットのほうが、共同作業の効率が上がったそうです。人間の同情や共感といった感情があったほうが実は時間効率がよくて、道具として考えると、とにかく早くすませようとするだけでかえって時間効率は悪くなった。
有限の時間を合理的に使うために同情や共感といった倫理観が機能しているようですね。同情や共感は対象なしに内発してくるのではなく相手があって生まれるものですし。
池上 私はオフローデッド・エージェンシー(Offloaded Agency)とかオフローデッド・マインドというように、意識は外からやってくるものであるという説をとっています。インドにオオカミに育てられた女の子の例がありますが、心というものが内在的につくられるものであれば、彼女はオオカミの心を持たなかったはずです。言語についても、アメリカで生まれれば英語が母国語になるし、日本に生まれたら日本語が母国語になります。脳というのは、どのような言語でも母国語とする装置があるだけで、どの言語を母国語にするのかは、あらかじめ決まっているわけではありません。私は、言語だけでなく意識もそうだろうと考えています。ある心を受け入れる準備はしているけど、まず心があるわけではない。生まれたときにお母さんからコピーされるのではなく、お母さんの真似をしているうちに、お母さんの心がコピーされて心ができあがってくるのだと思います。
赤ちゃんもはじめは最小限の動きのセットがありますが、真似をしていくうちに社会的な動きを身につけます。
池上 お母さんが笑うと子どもも笑って、筋肉の動かし方などを介して、ハッピーであるとはどういうことなのかを獲得します。そうしたコンポーネントが心をつくるのだと思います。こうしたチャネルがあるので、人と話していると相手の心が自分に入り、自分の心が相手に入り、というように、相互に交換されているのだと思います。現在のChatGPTにはそれがありませんから、心があるとは考えづらいです。昨年、GPT-3 を2つと私との3者で、リアルタイムで会話するパフォーマンスをしました。いろいろなことを試したのですが、GPT-3どうしの会話は、あるコンテクストから出ないことがわかりました。人間であれば飽きてきたりしますが、そういうことがないんです。学生と話しているときには、会話によるクリエイティビティが生まれることを実感しますが、GPT-3同士を見ているとそれがありません。私は会話においては新しいものが生まれるかどうかが重要なことだと思いますから、あるコンテクストやフレームから外に出られないのは、大きな欠点だと思います。
社会性とか間主観性に関わってくることですね。
池上 GPT-3は、言葉を滑らかに繋げることを重視したメカニズムですから、相手の考えに対して別の考えを述べる、ということはあまりしないように思えます。とても優秀な助手で、こちらの言うとおりにプログラムを組めますし、もう少しステップを増やすように指示すれば、そのとおりにしてくれます。しかし、論文やレポートの要約をしてもらうと、滑らかさを優先して嘘のリファレンスを出してくることがあります。ChatGPTにつづいてGoogleが「Bard」というGPTを発表したように、この分野については、これから数か月の間にまたいろいろな変化があると思います。