人のパートナーとなるAIを探求する──慶應義塾大学教授・栗原 聡氏に聞く
第1回 ファウンデーション・モデルからシンボル空間を再構成する

AIは人と共生し、協働するよきパートナーになれるのか――生成AIの登場以降、期待と不安のもとに語られる未来像を探るため、慶應義塾大学教授、人工知能学会会長の栗原聡氏のもとを再訪した。インタビュー第1回では、生成AIが科学史に与えたインパクトについて語られた。
<
取材: 慶應義塾大学AIC・生成AIラボにて

栗原聡(くりはらさとし)
慶應義塾大学理工学部教授。人工知能学会会長。慶應義塾大学共生知能創発社会研究センター センター長、慶應義塾大学大学院理工学研究所修了。工学博士。NTT基礎研究所、大阪大学、電気通信大学を経て2018年より現職。科学技術振興機構(JST)さきがけ社会変革基盤領域 研究総括。人工知能学会倫理委員会副委員長。オムロンサイニックエックス社外取締役、情報法制研究所上席研究員、総務省情報通信法学研究会構成員など。専門はマルチエージェントモデル、複雑ネットワーク科学、計算社会科学。著書『AI兵器と未来社会 キラーロボットの正体』(朝日選書)、『AIにはできない』(角川新書)、共編著『人工知能学大事典』(共立出版)など多数。
目次
生成AIがもたらしたテクノロジーのパラダイム・シフト
都築 正明(以下――) 前回先生にお話を伺ったのは2023年9月のChatGPT4がリリースされる前のことでした。そこから先生の研究内容は変わられましたか。
栗原 聡氏(以下栗原) 大きく変わりました。工学は、理論を追究する純粋な自然科学ではなく、実際に使えるものをつくる学問です。知能とはなにかを解明することを目指していますが、その過程でつくるものはやはり使ってもらわなければ意味がありません。今まで世界中の研究者が新しいことを考えて論文で発表してきましたが、ChatGPTというLLM(Large Language Model:大規模言語モデル)の登場は、単に流暢に言葉を交わすことができることに留まらない、大きな変化をもたらしました。
――どのような変化だったのでしょう。
栗原 2022年11月に登場したChatGPTが搭載していたのは、GPT-3.5というさまざまに応用可能な基盤となるファウンデーション・モデルでした。それ以前の2020年にはGPT-3が完成していましたし、GPTには2や1といったバージョンもちゃんと存在します。そのような開発の流れのもとで2022年11月にGPT-3.5を搭載したChatGPTが登場して一気に世界的にブレイクしました。現在のGPT-4oはマルチモーダル機能も含めて、さまざまなことができますが、それに比べるとGPT-3はだいぶ劣りますし、GPT-2を含め実用のレベルには到達できてはいませんでした。さて、これまでの技術は、新しい技術が誕生することで新しいことができるようになりました。しかし、生成AIに限っては、技術は基本的に同じでパラメータの量を増やすことで性能を向上させてきたのです。
アメリカの物理学者フィリップ・アンダーソンがいった“More is Different(多は異なり)”のような変化ですね。
栗原 量が指数関数的に増えることでフェーズや質が大きく変化することは自然界では当たり前に起こってきました。私たちの身体も、細胞が集合することでの自己組織化という創発現象が多段階に起きる過程を通して、結果的に現在の大規模で複雑な構造に至っているのです。しかしテクノロジーが進歩する過程で同じことが起きたのは、おそらく初めてのことです。これまでは新しい技術のもとに進化してきましたが、同じ技術であるにも関わらず量を増やすことで、性能が大きく変わったことは大変な驚きでした。また驚きとともに、脅威もおぼえました。
どのような脅威だったのでしょう。
栗原 すばらしいアイデアがあっても、大規模化できなければ実用化に至ることができない、という事態になってしまったことです。その時点で、ビッグテックが市場を独占するであろうことは自明でした。実際すでにそうなっていて、動画生成であれロボット動作生成であれ、大規模な生成AIモデルをつくることができるのは、大きな資本を背景にしたごく限られた少数のプレイヤーに限られてきて、潤沢なリソースを持たない者には門戸が開かれることはありません。
以前のお話の時点でも、データセンターは50億円規模の資金や、大量の電力や冷却水を投入しなければ不可能だということを伺いました。現在はそのレベルも超えていますね。
栗原 そうしたときに、私たち研究者は何をするべきなのかは難しいところです。今でも国内ではオープンな基盤モデルに追加学習をさせたりして、ドメイン限定に活路を見いだす取り組みが続いています。しかし、従来のように自分でデータを集めてモデルをつくることに極論を申せば意味はあるのでしょうか。アメリカのビックテックが今は手を付けないところを探して一所懸命につくってみても、彼らがいずれ着手すればすべて持っていかれてしまう。汎用性のある技術は、みんなに使ってもらわないと意味がありません。そして、そのような場合、なおさら企業名や、開発されたAIに対する人々の認知度が威力を発揮するものです。LLMでの言語処理が研究テーマとなれば、どうしてもビッグテックと衝突します。実際に、言語処理研究分野はダメージを受けています。私自身に関しては、高度な論理や因果、それに相手の気持ちを推し量るような、人間とインタラクションできる汎用的なレベルのものをつくろうとしていますので、大きなダメージを受けるというより、追い風になっているのは幸運でした。