ポスト生成AIを考える
慶應義塾大学理工学部教授 栗原 聡氏に聞く(3)

FEATUREおすすめ
聞き手 都築 正明
IT批評編集部

生成AIにおいてアメリカが圧倒的優位を保持しているなか、各国がなんとかキャッチアップしようとしているのが現在のAI事情だ。しかし汎用性と自律性を持つAGI(Artificial General Intelligence:汎用型人工知能)の実現に向けてのロードマップは、まだ明確な道筋を示せてはいない。最終回では、GPT-4についての最新情報から考える次世代AIの展望やその懸念点、またAI技術の普及において日本の持つアドバンテージについても話が及んだ。

2023年9月21日 慶應義塾大学理工学部会議室にて

 

 

栗原 聡(くりはら さとし)

慶應義塾大学 理工学部 教授/慶應義塾大学共生知能創発社会研究センター センター長。慶應義塾大学大学院理工学研究科修了。博士(工学)。NTT基礎研究所、大阪大学、電気通信大学を経て、2018年より現職。科学技術振興機構(JST)さきがけ「社会変革基盤」領域統括。人工知能学会副会長・倫理委員会委員長。大阪大学産業科学研究所招聘教授、情報法制研究所上席研究員、総務省・情報通信法学研究会構成員など。TEZUKA2023総合プロデューサー。マルチエージェント、複雑ネットワーク科学、計算社会科学などの研究に従事。著書『AI兵器と未来社会キラーロボットの正体』(朝日新書)、編集『人工知能学事典』(共立出版、2017)など多数。

 

 

 

目次

生成AIを大きなステップとして考える

「AIの民主化」の後で

じつは日本にはAIの導入に有利な条件がたくさんある?

人とAIとの共生と相互信頼

 

 

 

 

 

生成AIを大きなステップとして考える

 

――生成AIの分野でアメリカ、ついで中国が大きくリードするなかで、日本もそれに追いつこうという声は多く聞かれます。しかし「新しい資本主義実現会議」の提言を読んでも、DXとAI産業を活性化しようという目標しか掲げられていません。実際にLLMのデータセンターを1つつくるにも、50億円ちかい費用がかかるわけですよね。

 

栗原 おっしゃるとおりです。日本には、国にしても企業にしても、現在それだけの予算をつけられるところはありません。

 

――GoogleでLLMのアルゴリズム・バイアスを研究していたティムニット・ゲブルはGoogleから解雇されましたし、twitterでアルゴリズム・バイアスの研究をしていたラマン・チョードリーもイーロン・マスクの買収後すぐにチームごと排除されました。ともに有色人種の女性研究者ですが、AIの基盤モデルが白人男性中心になると、私たち日本人も不利益を被ることになります。

 

栗原 生成AIはたしかに画期的ですが、まだまだ高度に論理的に考えることは苦手ですし、相手の立場になって考えることもできません。そもそもそのための技術ではないので当たり前なのですが。つまりはTransformerだけで脳のすべてが構築できるわけはないはずです。脳はさまざまな部位からできていますから、今後は色々なAIモジュールを連携させて、脳のような複雑なシステムを作るという話も出てくるでしょう。現在でも 生成AIと人との間にエージェントを介することで、自律的に処理させるシステムが登場し始めています。そうした流れの延長線上で、人間のようにものを考えて動くAIをつくる発想へとシフトしていくのは間違いありません。そう捉えると、生成AIという技術が出てきたということは重要なことで、生成AIがだめだから自律型AIをつくるということではありません。生成AIが登場したからこそ自律型AIへの道が現実的になってきたのです。

 

――生成AIをステップとして捉える必要があるということですね。

 

栗原 そうは言っても、生成AIは膨大なデータを学習して稼働していますが、私たち1人ひとりはそこまでの知識を持っているわけではありません。それでも私たちは要約をしたり、喋ったりできているわけです。ディープ・ラーニングの思想はもともと脳を真似たニューラル・ネットワークでチェスや将棋を人間と対戦することで注目されました。こうしたゲームでは、AIは先を読んでいるわけではなく、1秒間に数億手を参照したりするわけです。一方、1秒間に数億手を参照することは、私たち人間にはできません。ですから、AIはコンピュータ独自の能力を使っているわけで、人間を真似ているわけではありません。その後のディープ・ラーニングの技術の発展には、コンピューターならではの方法を使っています。もはや人とは異なる道を進んでいるのです。

 

――内部でなにが行われているのかを実際にトレースすることはほぼ不可能ですね。

 

栗原 人間と同じように流暢に会話しているようにみえても、生成AIは異なったアプローチで会話をしていると見るべきでしょう。べつの観点からいうと、人間は言語以外のノンバーバルな情報も活用することで効率的に学習することができるのだと思います。そう考えると、Transformerの発想のみでさらに新しい方法があるのか、Transformerでさえまだ過渡期で、また新しいものがでてくるのかはわかりません。恐らく後者なのだと思います。

 

――むしろAIの思考を人間のアナロジーから引き離したことに意義があるのかもしれない。

 

栗原 そうかもしれません。それがわかるだけでも重要なことです。

 

 

「AIの民主化」の後で

 

――先生は生成AIが普及したことで「AIの民主化」がなされたとおっしゃっていますね。

 

栗原 これまでのAIをはじめ最先端IT技術は、専門知識を持つ特定の人のみが活用することが出来ました。すなわち誰もがAIを使ったイノベーションを起こすことができなかったのです。しかし、ChatGPTは誰もが利用出来ます。IT技術から縁遠かった人でも最先端AIを利用したイノベーションが可能になったのです.これがAIの民主化の意味であり、どこからでも素晴らしいイノベーションが起きる可能性があるのです。

 

――第3次AIブームの波にも後押しされていたということですね。

 

栗原 AIの民主化をもたらした生成AI技術はTransformerという2017年に提案された手法が基盤となっているのですが、言語の翻訳のための技術として生み出されたものでした。翻訳は多くの人に需要があるわけです。そのためにも大規模言語データの学習が必要だったのです。結果的に言語を生成する技術に応用されてChatGPTができて、100%ではないものの、私たちの常識に近いものすら学習されているのです。実は従来のAIにとって常識や暗黙知の活用はなかなか達成できない高い壁だったのですが、これがChatGPTの中核である大規模言語モデルを使えば手に入るようになりました。これを可能にしたことは大きいですよ。

 

――実際に、これほど多くの人々が使うようになっていますものね。

 

栗原 ただし、大規模言語モデルを構築するには膨大な数のコンピュータと電力が必要となるのです。この課題についても、もっとコンパクトにする研究が進んでいます。1つヒントになるかもしれないのが、GPT-4についてのリークされた情報なんです。GPT-4は、1兆パラメーターくらいのAIが実装されていると推測されていたのですが、リーク文書によると、実際には2,000億パラメーターのAIが8個並列に繋がっているそうです。

 

――そうだったのですね。

 

栗原 つまりは1兆パラメーターの巨大な1つのAIではなかったということです。ChatGPTのパラメータ数が1,750億ですから、それより少し大きいぐらいです。では、8個のChatGPTがどのように動作しているのかというと、どうも合議制でものごとを考えているらしいです。

 

――AIどうしが話し合いをしているイメージですか。

 

栗原 それぞれ性格の違うChatGPTが8個いて、なにかを問いかければ、8通りの答えが返ってきますよね。その中で1番よさそうなものを採用するイメージです。現状では1兆パラメーターAIを1個でつくるのは難しい、もしくはつくれないのかもしれません。また、学習させたからといっても確実に高い性能を発揮するものをつくれる保証もないのです。でも2000億パラメータのAIを並列で数個ならべればChatGPTよりも40%ぐらい性能がよくなるわけです。つまりは数千億パラメータのシステムがあれば十分だということかもしれません。単体で大きなAIよりも多数の小さいAIが群れることで1つの知能を生み出す方法の方が潜在的に高い可能性を持つはずです。そして、個々のAIが文字だけでなくマルチモジュール化していくと、その先に高い自律性・汎用性を持つAIの実現についても目処が立つのだろうと思います。

 

――先生が“Data is past, Simulation is future”というスローガンを掲げて研究をされていますが、これまでのAIが苦手だったシミュレーションも、話し合いのプロセスを経れば可能かもしれません。

 

栗原 そうなりますよね。

 

 

じつは日本にはAIの導入に有利な条件がたくさんある?

 

――AIによって私たち自身が変容することも想定する段階がやってきます。

 

栗原 EUはサブリミナルやプロパガンダを目的とするAIは言語道断という立場です。その通りだと思います。しかし、私たちが書籍や広告、また人から話を聞いてよい意味で考えかたを変えるというのも、見方を変えれば洗脳です。それほど遠くない将来には、EUも再考しなければならなくなるのだと思います。たとえば日本がそうした社会――AIが人間の考えかたを変えることを一律に禁止にしない社会――だとします。そして、人と共生しつつ国民のメンタリティを自然に変えていったとします。その結果、日本という国が、国民の幸福度が高く経済も成長し犯罪率も大幅に減少したとすれば、周りの国はこれを無視することができなくなるでしょう。ここで重要なのは、我々が無理矢理に思考や行動を変えさせられたと意識するようではダメ、ということなのだと思います。西遊記では、孫悟空が天界の主になろうといくら力を発揮しても、お釈迦様の手のひらの上のできごとだったことが分かってしまいますが、分かってはいけないのです。

 

――日本は、戦後GHQに民主主義化された後に高度経済成長までは成長して、犯罪率も減っている稀有な国ですものね。

 

栗原 日本には、人権や個の尊重ということを、よくも悪くもあまり言わないですよね。それでいて平和を保っていられるというのは、とてもハッピーなことです。我々日本人はアトムやドラえもんに対して拒否反応を起こさず、自然と受け入れることができるわけですが、これはとても素晴らしいことなのだと思います。

 

――ヨーロッパにはナチスの記憶があり、アメリカの場合には公民権運動があってすごくセンシティブな問題を抱えています。日本にも目を向けるべき問題はあるものの、あたかも問題がないかのようにしてきました。それは決してよいことではありませんが、少なくとも機械を導入する際の大きな留保はありません。しかも少子高齢化により働き手が不足しているものの、経済停滞で賃金を上げることもできない状態です。

 

栗原 移民を受け入れるか、AI・ロボットを利用するかの2択しかないとしたら、日本は移民受け入れについては苦手かもしれません。そうなるとロボットを導入することになるわけですが、その際、人間と阿吽の呼吸でやりとりできる能動的なAIを使うか、無機質な道具のようなものを使うかということになります。わかりやすくいえば「スター・ウォーズ」のC-3POを使うかR2-D2を使うかということです。C-3POは見てくれは人間に近い形をして人間の言葉を話しますけれど、無機質な翻訳ロボットという設定です。これに対してR2-D2は電子音しか発することができませんが、人と豊かなコミニュケーションがとれてます。欧米ではわかりませんが、私たち日本人は総じてR2-D2を好むだろうと思います。

 

――教育についてはAIが得意とするところですし、高齢者の介護は介護士不足だけでなく介護離職も増えていますから、ロボットの活用を促進するべきだと思います。

 

栗原 高齢者たちの中にはロボットのほうが、気を使わなくてよいと言う方もいます。それはそれで、少し悲しいことなのかもしれないですが。

 

――異性の介護士に入浴や排泄の介助をしてもらうことに抵抗がある方も多いでしょうし。在宅介護でも老人を常時監視するシステムを普及させようとしていますが、お年寄りもよい気持ちはしないでしょう。

 

栗原 たしかにお年寄りの気持ちが一番大事です。監視するにしても、当人が意識しないような工夫が必要ですよね。

 

――今後、行動をシミュレートして危険そうなときにアラートを出すことも考えられそうですし、立ち上がることなどを手伝ってくれる介護ロボットがいて、そのロボットがモニターしてくれるとよいかもしれませんね。

 

 

 

 

人とAIとの共生と相互信頼

 

――先生はユヴァル・ノア・ハラリ『ホモ・デウス』をどう読まれましたか。

 

栗原 残念ながら人類がそちらの方向に行く懸念は十分にあると思います。私たちは欲望の塊ですから、やはりその方向に向かうでしょうね。もちろん政治や国民性といったことがその度合いを左右する可能性はあるのだとは思います。

 

――今のところAIには欲望がありませんものね。

 

栗原 私たちも生物ですからもっとも根源的な欲望は生きるということですが、機械にはそれがありません。自律型AIに欲望やモチベーションを植えつけるのは私たちの側です。

 

――私たちは死ぬことが決まっているから、個体や種の保存を欲望として持ちうるわけですよね。

 

栗原 AIに持続的に動作せよという目的を与えることも可能でしょう。しかし、その解釈が進んでいくと、ターミネーターになってしまうかもしれません。大きな懸念の1つとされているのは、ロボットやAIが自分でコードを書き換えることです。AIが自分でプログラムを書き換えてしまうと、私たちが制御できなくなる可能性があります。しかも、その時点でAIの能力がシンギュラリティのレベルまで上がっていたら、私たちの考えることは、AIにとっては浅知恵にすぎず、私たちの行動はすべて予測できてしまいます。そのようなストーリーのSF映画もありますね。

 

――いまでもWikipediaに大きな信頼を置く人がいるように、AIの判断に大きな信頼を置くことは、生成AIレベルでも起きそうな気がします。

 

栗原 面白い実験があります。被験者がネットに繋がれていないコンピュータにAIが入っていると説明されます。AIは接続が切れたらシステムダウンしてしまう、自分では動けないから人につないでもらうしかない。そこでこのAIは被験者に、自分をネットに繋いでくれるようお願いするんです。実際にAIが被験者に「繋いでくれたらあなたをお金持ちにしてあげます」などとさまざまに訴えかけると――実際には実験者がAI役をしているのですが――結果的に多くの人がAIのいいなりになって繋いでしまったそうです。

 

――ミルグラムのアイヒマン実験に似ているようにも思えます。人間がAIに服従するような。

 

栗原 私たちは自律性や能動性を持つものを欲するわけです。なぜなら自分の意図をくみ取って先んじて動いてくれるAIの方が役に立ちますから。用途を限定していればよいのですが、高い汎用性を持つようになると、逆にAIが人間の行動を制御しかねないというわけです。

 

――私たちの欲望も容易に学習されそうですよね。

 

栗原 なし崩し的にものが進んでいくと、楽観視できない状況も、やはりありえる気がします。

 

――そうはいっても、そこまで発達した自律型AIが、人間を奴隷のように支配するようなことは想像できません。

 

栗原 支配するということをどう捉えるかにもよりますね。たとえば猫を飼っている人は猫に支配されているわけですし、日本人は稲や麦に支配されている。また私たちはスマートフォンに支配されているともいえます。そう考えると、見方次第だともいえます。

 

――スマートフォンについては、脳を外部化していると考える以上に、そこに依存するシーンは多いですね。

 

栗原 日本において人と自律型AIの共生社会が日本を豊かにしたとなったら、世界も浮き足立つでしょう。そうなったときに、AIとうまく付き合っている日本がワールド・スタンダードになるかもしれません。

 

――テクノロジーではなく、人とAIのかかわりそのものがイノベーティブになる。

 

栗原 道具というのは、当然ですが自分の知らないもしくは創造を越えた使い方はできません。そして道具は自分の思い通りに使えなければ道具ではありませんよね。ドラえもんは道具ではなく自ら考えて動くロボットです。そのドラえもんがのび太くんに「それやめなよ」と言えるのは、のび太君がドラえもんを信頼するもう1つの個として捉えているからです。人と自律型AIとの間にこのような信頼関係ができれば、自分にとって都合のよくない情報をもたらした場合にも、自分の役に立つ情報なのかもしれないと、情報摂取のバランスをとることができるのかもしれません。今後はそうしたインタラクションが重要になってくるのだと思います。<了>

(1)を読む

(2)を読む