人のパートナーとなるAIを探求する──慶應義塾大学教授・栗原 聡氏に聞く
第1回 ファウンデーション・モデルからシンボル空間を再構成する

FEATUREおすすめ
聞き手 都築 正明
IT批評編集部

ファウンデーション・モデルは常識やモラルを扱うことができる

先生が取り組まれている、人や社会とのインタラクション(相互のやりとり)をはかるAIについて教えてください。

栗原 感性や他者のことを考えたエージェントや社会シミュレーションに関する研究は新しいわけではなく、古くから取り組まれてきた重要な研究テーマです。因果推論のような論理的思考を行う知的アーキテクチャに関する研究も昔からあります。また、こうして話をしている今、火災報知器が鳴れば話を中断して逃げるように、リアルタイムで生きている私たちの行動は動的に変容します。そうしたことを可能とするAIについての研究も以前より取り組まれているのです。では、どうして実用化されなかったかといえば、大きな要因が我々とっては当たり前の知識である「常識」や「モラル」をコンピュータに学習させて実レベルで実装することが困難だったからなのです。Deep Learningが登場する以前、人にとって当たり前の事はAIには苦手だったのです。この見方は現在においても基本的には変わっていないと思います。

人間が自然言語を用いて行っていたしつけを、具体的な場面ごとに“IF-THEN”の条件分岐に落とし込むような考えかたですよね。

栗原 ルールベースで人間が常識やモラルを書き込んだりデータを解析したりと、様々なチャレンジがされてきましたが、現在のようなビッグデータを集めることと、集めた膨大なデータから常識やモラルを抽出するところで大きな壁にぶつかってしまい、ブレイクスルーがなかなか起きなかったのです。しかし、Deep Learningが実用化され、それを基盤とするTransformer技術が開発され、それにより大規模LLMの開発に成功したことで、AIは人のように流暢に言語を使いこなすことができるようになりました。我々と同じように受け答えができるということは、AIが我々の常識やモラルを理解しているかのように見える、ということを意味しています。別の言いかたをすれば、AIが私たちが話したり日記を書いたりしたことや、書籍や教科書に書かれていることなど、古今東西のありとあらゆる言語データを集めて学習するということは、そのようなデータに内包されるモラルや常識についても学習できていることを意味しているのだと思います。ただし、我々はモラルの大切さを意識して行動していますが、LLMは表面的にモラルを理解しているように反応しているだけであることに変わりはありません。

哲学者のジョン・サールが「強いAI」と表現したように、外形的にみればモラルや常識を理解しているようにみえるということですね。

栗原 そこが重要な見地です。しかし、外形的であってもとても有用です。人前で人に暴力を振るってはいけないように、この場面ではこうしてはいけない、こうしなければいけないということについて、人と同じような判断を出力することができる。なので、ディープ・ラーニング以前に研究されていた、知識処理や行動選択(プランニング)研究において、手を出すことができなかったモラルや常識に手が届いたことこそが、ChatGPTの成功がもたらした大きな成果だともいえます。膨大なデータを集めてスケールした性能を発揮することに成功した大規模LLMを用いることで、これまで常識やモラルを扱おうとしてきた研究者たちにとって越えられなかった壁を超えることを可能とし、いよいよ先に進めるようになったのですから。

既存の常識やモラルを学習したモデルは、かつてのルールベースのAIを汎用レベルまで昇華させたものとして考えてよいのでしょうか。

栗原 そうした意味です。「こういう時にはこういう振る舞いをするのだ」とか、「こういう場合のこの受け答え方は常識だ」といったルールのような知識もLLMにしっかり含まれているということです。そうすると、次にするべきことは人間のモラリスティックな行動規範や常識的な反応をLLMからひたすら取り出していく作業です。それまでのルールベースの人工知能に足りなかった部分を、LLMから引き出して補い、拡張することができるわけです。

例えば、リーガルテックのNLP(Natural Language Processing:自然言語処理)で補いきれずにパラリーガルの人たちが目視と手作業で行っていることが、LLMを使ってできるような理解でよいでしょうか。

栗原 はい、同じ構図ですが、ただし、パラリーガルが補間する量の方が、前者のNLPでカバーする量よりも圧倒的に多いという意味になります。

1 2 3