日本大学文理学部 情報科学科准教授・大澤 正彦氏に聞く
第3回 人とAIが歩み寄るヒューマンエージェント・インタラクションの可能性
熟考するシステムをAIに取り入れる
システム1/システム2とAI融合の可能性
それこそもう最近のAIの判断のスピードが上がりすぎていて、行動経済学でいうところのシステム1、2、3みたいな区分が通用しなくなってきています。人間は熟考してシステム2を使うことで倫理的に行動できるのに、もう熟考のレベルじゃないスピードでAIが判断できるとなると、倫理の考え方も変わるのかなと思ったりするのですが。
大澤 まさにさっき言っていた言葉の裏を読むという研究は、システム1とシステム2を分けて考えています。今のChatGPTはシステム1的ですよね。ここは意外と伝わらないことが多いんです。だって、言葉で考えて出しているんだから、システム2じゃないですかとよく言われるんですね。実はそんなことはなくて、ニューラルシステムで理解している限りはシステム1なんです。そして、システム2みたいなシンボリックな計算のシステムを大規模言語モデルと統合することで、言葉の裏を読んで意図スタンスでやり取りできるようになるというのが僕らの研究です。システム2みたいなものを明示的にAIに入れてあげると、意図的な振る舞いはできる。それが倫理的な振る舞いができるという話にもなるとしたら面白いですね。
人間は熟考することで倫理的に振る舞うのだとも思っています。
直感と熟考を両立するAI設計とは
大澤 どうでしょう。熟考したときに正しい行動ができているかというと、実はそんなに差がないという話もあります。むしろ経験値を積みあげていくことを通して、直感的に良い悪いの判断をできるようになる部分もあるとは思うんですよね。例えば将棋の場合、プロ棋士の方に局面を見せたときに、「なんとなく気持ち悪い」みたいな直感が働いて、よく考えると、どこが危うかったのかが後から理解できるということがあるそうです。直感で良し悪しを判断して、後から熟考して良い悪いの裏付けをしているのかもしれない。もっと身近な話で言うと、熱いやかんを触ったら、ぱっと手放すじゃないですか。なんで手を放したんですかって聞いたら熱かったからですって答えますが、これ嘘ですよね。僕ら、脊髄反射が備わっているから、熱いと感じる前に手を離しているんです。手を離し終わった自分の状態を熟考して解釈して、熱いから手を離したというふうに因果関係を後から説明するわけです。
説明可能AIみたいな話ですね。
大澤 だから、良し悪しの“判断”と良し悪しの“説明”は、実はそれぞれ違うものかもしれないことを僕らは考えたりしています。
熟考することで、功利主義的というか、どっちのほうが利益が出るかとか、どっちのほうが社会にとっていいのかみたいな設計のスタンスは入れやすいのかなと思ったりしました。
大澤 そうですね。システム2のほうはシンボリックな手続き的なアーキテクチャを説明しているところもあります。心を読むといったときに、その人が何を知っているか、何を望んでいるかという信念と願望の情報から、意図が出てくると考えています。信念、願望、意図のパズルみたいなもので心ができているんじゃないかというモデルです。特殊なアーキテクチャ、特殊な手続き、特殊なルールのことを意図スタンスと言っているだけなんだとしたら、実はコンピュータでつくるときの情報処理としてはそこまで乖離してないかもしれない。心って特殊な計算システムが働いているように思えるけど、実は問題設定が特殊なだけで、計算方法が特殊なわけではないと思っています。同じ脳で扱っているわけですから、設計スタンスも意図スタンスも情報処理の基盤としては同じなわけです。ただし、最適化問題を解くときの問題設定が違えば、全然違う学習結果になるということだと思います。