慶應義塾大学理工学部教授 栗原 聡氏に聞く
(3)ポスト生成AIの未来とは何か?AGI、自律型AI、日本の可能性

FEATUREおすすめ
聞き手 都築 正明
IT批評編集部

生成AIにおいてアメリカが圧倒的優位を保持しているなか、各国がなんとかキャッチアップしようとしているのが現在のAI事情だ。しかし汎用性と自律性を持つAGI(Artificial General Intelligence:汎用型人工知能)の実現に向けてのロードマップは、まだ明確な道筋を示せてはいない。最終回では、GPT-4についての最新情報から考える次世代AIの展望やその懸念点、またAI技術の普及において日本の持つアドバンテージについても話が及んだ。

栗原聡

栗原 聡(くりはら さとし)

慶應義塾大学 理工学部 教授/慶應義塾大学共生知能創発社会研究センター センター長。慶應義塾大学大学院理工学研究科修了。博士(工学)。NTT基礎研究所、大阪大学、電気通信大学を経て、2018年より現職。科学技術振興機構(JST)さきがけ「社会変革基盤」領域統括。人工知能学会副会長・倫理委員会委員長。大阪大学産業科学研究所招聘教授、情報法制研究所上席研究員、総務省・情報通信法学研究会構成員など。TEZUKA2023総合プロデューサー。マルチエージェント、複雑ネットワーク科学、計算社会科学などの研究に従事。著書『AI兵器と未来社会キラーロボットの正体』(朝日新書)、編集『人工知能学事典』(共立出版、2017)など多数。

目次

生成AIを大きなステップとして考える

生成AIの分野でアメリカ、ついで中国が大きくリードするなかで、日本もそれに追いつこうという声は多く聞かれます。しかし「新しい資本主義実現会議」の提言を読んでも、DXとAI産業を活性化しようという目標しか掲げられていません。実際にLLMのデータセンターを1つつくるにも、50億円ちかい費用がかかるわけですよね。

栗原 おっしゃるとおりです。日本には、国にしても企業にしても、現在それだけの予算をつけられるところはありません。

GoogleでLLMのアルゴリズム・バイアスを研究していたティムニット・ゲブルはGoogleから解雇されましたし、twitterでアルゴリズム・バイアスの研究をしていたラマン・チョードリーもイーロン・マスクの買収後すぐにチームごと排除されました。ともに有色人種の女性研究者ですが、AIの基盤モデルが白人男性中心になると、私たち日本人も不利益を被ることになります。

栗原 生成AIはたしかに画期的ですが、まだまだ高度に論理的に考えることは苦手ですし、相手の立場になって考えることもできません。そもそもそのための技術ではないので当たり前なのですが。つまりはTransformerだけで脳のすべてが構築できるわけはないはずです。脳はさまざまな部位からできていますから、今後は色々なAIモジュールを連携させて、脳のような複雑なシステムを作るという話も出てくるでしょう。現在でも 生成AIと人との間にエージェントを介することで、自律的に処理させるシステムが登場し始めています。そうした流れの延長線上で、人間のようにものを考えて動くAIをつくる発想へとシフトしていくのは間違いありません。そう捉えると、生成AIという技術が出てきたということは重要なことで、生成AIがだめだから自律型AIをつくるということではありません。生成AIが登場したからこそ自律型AIへの道が現実的になってきたのです。

生成AIをステップとして捉える必要があるということですね。

栗原 そうは言っても、生成AIは膨大なデータを学習して稼働していますが、私たち1人ひとりはそこまでの知識を持っているわけではありません。それでも私たちは要約をしたり、喋ったりできているわけです。ディープ・ラーニングの思想はもともと脳を真似たニューラル・ネットワークでチェスや将棋を人間と対戦することで注目されました。こうしたゲームでは、AIは先を読んでいるわけではなく、1秒間に数億手を参照したりするわけです。一方、1秒間に数億手を参照することは、私たち人間にはできません。ですから、AIはコンピュータ独自の能力を使っているわけで、人間を真似ているわけではありません。その後のディープ・ラーニングの技術の発展には、コンピューターならではの方法を使っています。もはや人とは異なる道を進んでいるのです。

内部でなにが行われているのかを実際にトレースすることはほぼ不可能ですね。

栗原 人間と同じように流暢に会話しているようにみえても、生成AIは異なったアプローチで会話をしていると見るべきでしょう。べつの観点からいうと、人間は言語以外のノンバーバルな情報も活用することで効率的に学習することができるのだと思います。そう考えると、Transformerの発想のみでさらに新しい方法があるのか、Transformerでさえまだ過渡期で、また新しいものがでてくるのかはわかりません。恐らく後者なのだと思います。

むしろAIの思考を人間のアナロジーから引き離したことに意義があるのかもしれない。

栗原 そうかもしれません。それがわかるだけでも重要なことです。

「AIの民主化」の後で

先生は生成AIが普及したことで「AIの民主化」がなされたとおっしゃっていますね。

栗原 これまでのAIをはじめ最先端IT技術は、専門知識を持つ特定の人のみが活用することが出来ました。すなわち誰もがAIを使ったイノベーションを起こすことができなかったのです。しかし、ChatGPTは誰もが利用出来ます。IT技術から縁遠かった人でも最先端AIを利用したイノベーションが可能になったのです.これがAIの民主化の意味であり、どこからでも素晴らしいイノベーションが起きる可能性があるのです。

第3次AIブームの波にも後押しされていたということですね。

栗原 AIの民主化をもたらした生成AI技術はTransformerという2017年に提案された手法が基盤となっているのですが、言語の翻訳のための技術として生み出されたものでした。翻訳は多くの人に需要があるわけです。そのためにも大規模言語データの学習が必要だったのです。結果的に言語を生成する技術に応用されてChatGPTができて、100%ではないものの、私たちの常識に近いものすら学習されているのです。実は従来のAIにとって常識や暗黙知の活用はなかなか達成できない高い壁だったのですが、これがChatGPTの中核である大規模言語モデルを使えば手に入るようになりました。これを可能にしたことは大きいですよ。

実際に、これほど多くの人々が使うようになっていますものね。

栗原 ただし、大規模言語モデルを構築するには膨大な数のコンピュータと電力が必要となるのです。この課題についても、もっとコンパクトにする研究が進んでいます。1つヒントになるかもしれないのが、GPT-4についてのリークされた情報なんです。GPT-4は、1兆パラメーターくらいのAIが実装されていると推測されていたのですが、リーク文書によると、実際には2,000億パラメーターのAIが8個並列に繋がっているそうです。

そうだったのですね。

栗原 つまりは1兆パラメーターの巨大な1つのAIではなかったということです。ChatGPTのパラメータ数が1,750億ですから、それより少し大きいぐらいです。では、8個のChatGPTがどのように動作しているのかというと、どうも合議制でものごとを考えているらしいです。

AIどうしが話し合いをしているイメージですか。

栗原 それぞれ性格の違うChatGPTが8個いて、なにかを問いかければ、8通りの答えが返ってきますよね。その中で1番よさそうなものを採用するイメージです。現状では1兆パラメーターAIを1個でつくるのは難しい、もしくはつくれないのかもしれません。また、学習させたからといっても確実に高い性能を発揮するものをつくれる保証もないのです。でも2000億パラメータのAIを並列で数個ならべればChatGPTよりも40%ぐらい性能がよくなるわけです。つまりは数千億パラメータのシステムがあれば十分だということかもしれません。単体で大きなAIよりも多数の小さいAIが群れることで1つの知能を生み出す方法の方が潜在的に高い可能性を持つはずです。そして、個々のAIが文字だけでなくマルチモジュール化していくと、その先に高い自律性・汎用性を持つAIの実現についても目処が立つのだろうと思います。

先生が“Data is past, Simulation is future”というスローガンを掲げて研究をされていますが、これまでのAIが苦手だったシミュレーションも、話し合いのプロセスを経れば可能かもしれません。

栗原 そうなりますよね。

1 2