東京大学松尾・岩澤研究室 鈴木雅大氏に聞く
第4回 世界モデルはAIに能動性を持たせる

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集部

AI<が自律的な気づきを得ることは可能か

AIが能動的に動くというのは、結局AIが自律性を持つということですか。

鈴木 そうだと思います。今はどちらかと言えば道具としてのAIという側面がクローズアップされています。つまり、われわれが指示を出したりデータを与えたりすることで、その通りに対応する形になっている。そうではなくて、AI自身が自分が足りないことを認識して、そのうえで行動することが必要になってくると思っていて、そっちの研究をやりたいなと思っています。

そうか。AIの創発性の問題も、今はデータ量の閾値を超えるかみたいな表現ですけど、そうではない創発性もありうるということですね。能動的に動くことによってそれは獲得できるかもしれない。赤ちゃんが何かを気づくって多分そういうことですよね。

鈴木 ひらめいたり気づいたりするときって、われわれは能動的だと思うんですよね。

面白いですね。1の入力で100を知るみたいな。

鈴木 今はとにかく大量にデータ与えたうえでそれをやろうとしているのがLLMですけど、世界モデルを活用することで、そういうひらめきとかもより効果的に出てくる可能性はあります。

ふだんの生活でわたしたちは経験から帰納的に判断することが多いですよね。間違いを恐れずに、わずかな経験からものごとを断定したりもするじゃないですか。夕焼けが見えたから明日は晴れるというような。AIもこの「アブダクション推論」2といわれるものに近いようなことをやろうとしているわけですか。

鈴木 帰納的に推論ができるということを、うまく生かしたいわけです。それで誤謬が起きるっていうのは人間の悪いところでもあるんですけど、人間はミスしたことも経験として受けとめて、次に繋げていけるのも能動的だからだと思います。

1 2 3