「基礎情報学」でテクノロジーのなにが見えてくるか?
――東京大学名誉教授 西垣通氏に聞く(1)
桐原永叔(IT批評編集長)
第3次AIブームにつづく生成AIの登場により、人工知能はひろく人口に膾炙するようになった。それに並行して、シンギュラリティ仮説やポスト・ヒューマニズムといった議論が聞かれるようになっている。そこに冷静な視線を投げかけつつ、生命や文化とともに情報を位置づけるのが、西垣通氏の構築した基礎情報学という見地である。第1回では、AIの抱える課題と情報学の2つのパラダイムについて話を聞いた。
取材:2024年6月5日 トリプルアイズ会議室にて
西垣通(にしがき とおる)東京大学大学院情報学環名誉教授。1948年東京生まれ。東京大学工学部計数工学科卒。工学博士(東京大学)。日立製作所でコンピュータ研究開発に従事し、客員研究員としてスタンフォード大学に留学。その後、明治大学教授、東京大学社会科学研究所教授、東京大学大学院情報学環教授、東京経済大学コミュニケーション学部教授を歴任。専攻は情報学、メディア論。基礎情報学の提唱者として知られる。著書として、『デジタル社会の罠』(毎日新聞出版)、『AI原論』(講談社選書メチエ)、『ビッグデータと人工知能』(中公新書)、『ネット社会の「正義」とは何か』(角川選書)、『超デジタル世界』(岩波新書)、『基礎情報学(正・続・新)』(NTT出版)ほか多数。『デジタル・ナルシス』(岩波書店)ではサントリー学芸賞(芸術・文学部門)を受賞した。 |
目次
コンピューティング・パラダイムとサイバネティック・パラダイム
エンジニアとして抱いた疑問を胸にアカデミズムの道へ
都築正明(以下、――)先生は日立でエンジニアとして汎用コンピュータの開発に携わられていたのですね。
西垣通氏(以下、西垣) 東京大学工学部で計測数理工学を学びました。当時の大学はいわゆる「熱狂的政治の季節」でしたが、数理的にクールにものごとを捉えることに興味を抱いて、純理論的な分野に進みました。卒業後は日立製作所に入社して、1970年代初めから汎用大型コンピュータのOSの研究・開発に携わりました。性能や信頼性の数学的モデルの研究についての論文も発表したので、1980年代に日立からスタンフォード大学に客員研究員として留学しました。1982年に東京大学から工学博士号を取得しました。
――AIには、スタンフォードで出会われたのでしょうか。
西垣 当時は第2次AIブームの時代でした。エキスパートシステムの始祖であるエドワード・ファイゲンバウム教授が当時のスタンフォードのコンピュータ学部長で、AI研究の中心人物でした。法や医療について推論を重ねて結論を導き出すことが目指されていましたが、私としては人の生死にすらかかわる判断をすべてコンピュータに委ねてよいか、また人の行動や生理現象のすべてを論理で説明できるかどうかに疑問を抱くこともありました。
――帰国後は、どのような仕事に従事されましたか。
西垣 通商産業省(当時)がリードしていた産官学一体の第5世代コンピュータ開発のプロジェクトに参画しました。論理形式でプログラムを書き、ハードウェアのレベルで高速な並列推論処理を行うものです。開発には成功したものの、ほとんど実用化はされませんでした。論理命題を高速に処理して推論しても、その結果を現実に適用することができなかったのです。医療や法律の分野で答えを出したとしても、その信頼性は絶対のものではありません。医療において誤診が生じたときに、その責任の所在をコンピュータに負わせるわけにもいきませんから。コンピュータにすべてを委ねることへの私の疑問は、さらに募りました。
――プロジェクト終了後は、どうされたのですか。
西垣 研究所勤務から工場勤務に移ったのですが、激務から倒れ、入院と手術を強いられることとなりました。これを機会に、技術だけでなく社会や文化もふまえてテクノロジーを捉えようと決心し、明治大学の教員になりました。当時、隆盛していたポスト・モダンの思潮を学びたいと思い、フランスで在外研究を行いました。その後、東京大学に移籍し、2000年に発足した文理融合の大学院情報学環・学際情報学府のコアメンバーとして、基礎情報学の構築に着手しました。定年退官後の2013年からは東京経済大学コミュニケーション学部に定年まで勤務しました。現在は、東京大学名誉教授として基礎情報学の研究にあたっています。
解決されていない記号接地問題とフレーム問題
――今日、AIが解決できていない問題はいくつかありますが。
西垣 私がスタンフォードにいた1980年代から難問とされていたのが、いわゆる「記号接地問題」と「フレーム問題」です。これらの問題はすでに解決したという専門家もいますが、私はそうは思いません。
――記号接地問題については認知科学者スティーブン・ハルナッドが指摘していますね。
西垣 記号接地問題というのは、デジタル記号とそれが表す対象の実体概念とをコンピュータ内で結びつけることで、これが難しいのです。たとえばコンピュータが猫を表現するときには、猫の実体概念を理解しないままビット列を形式的に処理しています。深層学習(ディープラーニング)技術によって、これが解決されたという人もいます。これまで“cat”という文字列で処理していたものを、ニューラルネットワークを用いて画像表現で処理できるようになり、猫の図像と猫の統計的ビット表現が結びついたから記号接地に近づいたというわけです。たしかに以前よりは近づいたかもしれません。しかし私にしてみると、それは屋根に登って月に一歩近づいたと言っているようなものです。
――パターン認識で近づいてはいるものの、解決にはほど遠いわけですね。
西垣 コンピュータは猫についての私たちの思い、とくに猫を飼っている人の愛着などをまったく理解できません。たんなる統計的な表象を処理しているにすぎません。
――フレーム問題についてもお聞かせください。
西垣 フレーム問題というのは、AIには問題の枠づけによる絞り込みができないという難問です。たとえばお腹が空いて、ハンバーガーを買いに行くという場合を考えてみましょう。人間の場合は、どこにハンバーガーショップがあって、そこに行くにはどう歩いていけばいいかはすぐ分かります。でもAIの場合、まず道筋を教えなければなりません。通常の道筋だと、途中で工事をしていてその道を通れないかもしれません。またハンバーガーショップに着いても店が閉まっているかもしれませんし、新商品が発売されていたり、割引があったりするかもしれません。要するに、無限の選択肢が起こり得るので、処理が事実上追いつかなくなるわけです。
――1つひとつの状況に応じた思考の枠を用意することができないので、AIには臨機応変の思考ができないということですね。
西垣 これは記号接地問題より前に、ジョン・マッカーシーとパトリック・ヘイズという研究者によって指摘されました。フレーム問題というのは、基本的に文脈をいかに捉えるかということです。生成AIの基盤モデルである大規模言語モデルは単語同士の関係性を論理的にとらえ、統計的に処理しているだけで、人間のように状況のなかで文脈を理解しているわけではありません。
生成 AIの立地点とは
――先生は、第3次AIブームと生成AIをどう捉えていらっしゃいますか。
西垣 第1次AIブームや第2次AIブームは、論理性だけにもとづく操作で世の中の課題は解決できないことを明らかにしました。今世紀になって、ジェフリー・ヒントンなどにより深層学習(ディープラーニング)というテクノロジーが実用化されました。この技術は、基本的にはパターン認識の効率化です。従来のパターン認識では、認識するパターンの特徴を人間が細かく記述する必要がありました。たとえば“3”という文字を認識するには、左側がブランクで、右側に二つの丸い曲線があって……と指定しなければならなかったわけです。深層学習では、コンピュータが自動的に似たようなものをグルーピングすることで特徴指定の手間を解決しました。これは使う側にとっては大きな進歩です。ただし、脳神経に似たニューラルネットワーク・モデルを使うことで、膨大な計算が必要となります。深層学習のアイデアは昔から発表されていましたが、膨大な計算量を要するため実用化はできなかったのです。
――データ量と演算スピードというハード面がネックになっていたわけですね。
西垣 ハードの性能向上とソフトのさまざまな工夫により、深層学習が工学的に実用化された。そこに飛びついたのが第3次ブームだというのが実状です。
――第1次ブーム、第2次ブームのときは論理に基づいて解を出していましたが、第3次以降は統計的な距離で尤度(ゆうど)*の高いものを解としているわけですよね。
西垣 統計的に解を得て、それなりに役に立つようになった。これは大きなパラダイムシフトです。しかしそこには大きな問題があります。たしからしいものを正解とするわけですから、そこには論理的な裏づけがなく、間違いを含んだ回答を出力することになります。さきほど誤診の例を挙げましたが、AIが犯した間違いの責任の所在はますます分かりづらくなってしまいました。たとえばアメリカの空港ではAI顔認証を用いて不審人物をチェックしています。そうすると、往々にしてお化粧をした女性や有色人種などについて誤った判定をしてしまいます。そこで引っかかってしまった人は飛行機に乗ることができず、大きな不利益を被ります。
――サンプル数が少ないものについては判断が不正確になってしまうということですね。
西垣 作業効率は全体として向上しているかもしれません。しかし不正確さという負の部分も生じているにもかかわらず、問題や限界がきちんと明らかにされていないのです。それなのに、ユーザーへの親和性だけを求めて応用をどんどん拡大しようとしています。たとえばこれまで、キーワードを入力すると関連するURLが出力される情報検索が主流でしたが、自然言語の質問に自然言語で応答する対話型のChatGPTのほうが親しみやすい。こうして、歴史上はじめて一般人がAIの直接のユーザーになりました。正確性よりも親和性が追求されたのです。
――アンダーソンという理論物理学者が“More Is Different”と記したように、 LLM (Large Language Models:大規模言語モデル)において量的なものが質的な相転移をもたらしたといえるのでしょうか。
西垣 相転移をして、AIが本当に賢くなれるかどうかは微妙なところです。大量のデータを処理することで、人間が気がつかなかったパターンにAIが気がつくこともあります。たとえば将棋や囲碁をするAIは強くなりましたね。同様な連想もあって、自然言語を分析し生成するLLMは衝撃をもって受け止められました。その意味で、私はいまの生成AIが役立つ可能性を否定はしません。2022年末にChatGPTが公開されて一躍有名になりましたが、LLMは以前からGoogleやOpenAIで研究されていたのです。2018年にはキー論文も発表されていました。LLMにもとづくChatGPTは、膨大なデータや多くの複雑なパラメータによる深層学習モデル、高速計算ハードウェアを用いて単語の次にくる単語を予測することで、質問に対してもっともらしい回答を生成することができます。しかし回答に意味内容の不正確さがあるので、公開は控えられていたのでしょう。教師データにプライバシーを侵害するものが含まれることも考えられますし、誤情報や偽情報を拡散させることも危惧されていましたから。
――フレーム問題のところで文脈把握についてお話しいただきましたが、そこはまだクリアできていなかったのですね。
西垣 文章には、パターンといっても音声や画像と違って単語1つひとつに意味があるので、生成するのはそれまで難しかったのですが、ベクトルのような数理的表現を用いることで、ある程度可能にしました。隣接する単語だけでなく、係り受けや修飾関係、また代名詞の指示内容などの論理的な関係も分析します。分析を文頭だけでなく文末からも行うことで、双方向化して精緻化することができます。また、データ量を増していくと、べき乗法則にしたがって精度が上がっていくことも実証的に示されました。
――ハルシネーションについても当時から問題視されていたのでしょうか。
西垣 機械的な論理処理なので、意味的には支離滅裂な回答も出てくるわけですが、文法的にはもっともらしいものになっているわけです。これが世間に広まると大変なことになるだろうという懸念もあって、Googleは公開を抑えていたのかもしれません。OpenAIが2022年末にChatGPTをリリースした背後には、OpenAIに出資しているMicrosoft社が検索機能でGoogleに対抗しようとしたという、ビジネス上の戦略があったという推測もなされています。
――相当なインパクトがありましたよね。
西垣 たしかに技術としては目を見張るものがありました。私が日立にいた当時は、機械翻訳でも、日本語だったら日本語、英語だったら英語をというように、自然言語処理の文章は言語ごとに分析していました。そこをLLMでは、基本的にはどんな言語も同じメソッドで扱って、もっともらしい文章を生成するのです。エンジニアリングとしては、なかなか高度な技術だと思います。
桐原永叔(以下、桐原) わずか4カ月後にGoogleもBardをリリースしました。ベンチャーだったOpenAIのChatGPTのハルシネーションについてはリスクは言われても問題になるほどではなかったのに、GoogleのBardが発した宇宙望遠鏡についてのハルシネーションは同社の株価を大幅下落させるほど問題視されてしまいました。
西垣 もしかしたら、OpenAIのサム・アルトマンたちは元来は学究的な人々で、純粋に面白いから開発していたのではないでしょうか。ところがChatGPTをリリースしたら大ブームになって、営利部門が非営利部門を支配するようになりました。昨年には、サム・アルトマンが解雇されまた復帰するという内紛がありましたが、そこには学究的な意図と営利的な意図とのジレンマがあったのだろうと思います。
*尤度(ゆうど):観測値が与えられたとき、それを説明するモデルや分布などの母数(パラメータ)の値のもっともらしさのことである。尤度はパラメータの関数として表すことができるので尤度関数ともいう
コンピューティング・パラダイムとサイバネティック・パラダイム
――情報の意味内容について、先生はコンピューティング・パラダイムとサイバネティック・パラダイムの2つに整理して考察されています。
西垣 情報を扱うにあたって、まず意味内容の正確性とはなにかを考えなくてはなりません。そこで20世紀半ばに情報科学が誕生したときのジョン・フォン・ノイマンとノーバート・ウィーナーという2人の数学者のスタンスに注目してみました。フォン・ノイマンは現在のプログラム内蔵型コンピュータのモデルをつくった人物で、ウィーナーはサイバネティクスを提唱した人物です。フォン・ノイマンは、全知的に世界を俯瞰する視野から世界を見わたし、そのありようを論理的かつ数学的に記述して、データの機械的処理によって最適解を得るという客観的なアプローチをとりました。一方、ウィーナーは個体としての主観的な視野から、生きるための行動をフィードバック制御によって探索するアプローチを提唱しました。両者から発したパラダイムを、それぞれコンピューティング・パラダイムとサイバネティック・パラダイムと呼んでいます。なお、前者をノイマン・パラダイム、後者をウィーナー・パラダイムと呼ぶ人もいますが、ウィーナーの仕事は両方にまたがるので、この呼称は誤解を招くと言えるでしょう。
――ノイマンの、ものごとを定量的に捉えて分析するのは、近代科学において一般的なアプローチですよね。
西垣 データの機械的処理によって最適化を得るという意味では、情報科学の誕生から現代まで受け継がれている伝統的なアプローチです。一方のウィーナーは数学者でありながら人文的な教養をもつ人で、生物としての限られた視野から、生きるためにいかに行動すべきかを考えました。ウィーナーは第2次世界大戦時には高射砲の弾道計算に携わっていました。爆撃戦のなかで限られた情報をもとにどのように生き残るかという視座から、生物の生存をもとめるアプローチに至ったわけです。戦争が終わるとウィーナーは軍事的なことから一切手を引いて、義肢などの研究に携わりました。これが生物の神経系と電子機器とを用いて生きるにはどうすればよいかというサイバネティックスの研究につながっていきます。
――環境適応系としての個体に基づいた考えかたということですね。
西垣 はい。コンピューティング・パラダイムが一元的な客観世界を前提とするのにたいして、サイバネティック・パラダイムは生物個々の多元的な主観世界を前提としています。ところが、このパラダイムに則って研究をすることは、なかなか困難であり、コンピューティング・パラダイムが優勢になってしまいました。科学技術研究は、世界が客観的な事象で構成されていて、それを実験や測定、論理によって解明していくという、素朴実在論のような思考に基づいてなされることが多い。これはかつてフランシス・ベーコンが唱えたように、人間が知を力として自然を支配することを科学の理想とする考え方で、その意味ではAIはコンピューティング・パラダイムの嫡子といえるでしょう。この客観世界の根底にあるのは、造物主である神が万物を創造し、それらの秩序ある有様を正しく認識していくことが人間に与えられた使命だとする、ユダヤ・キリスト教的な世界観です。
――自然界の論理を読み解いていくことで、神の意図に近づいていこうとする発想ですね。逆にいうと、知るためには信じなければならないという立場になります。
西垣 ヨハネ福音書にも「はじめにロゴスあり、ロゴスは神と共にあり」とあります。ロゴスとは論理であるだけでなく真理なのです。信仰に基づいて研究するという意図は、私にもわかります。しかしユダヤ教やキリスト教の信者ではない私には、まず人間が周囲環境や社会を個々に主観的に認識して、相互交流するなかでいわゆる客観世界を事後的に仮定したという順序のほうが正しいように思えます。まあ天体運動などを分析するときには客観世界を前提にしてもかまわないと思いますが、人間の心や身体、社会などを分析するときには、まず主観ありきでアプローチすべきではないでしょうか。それぞれの主観的な世界のありようは、個人間でも異なっているわけですから。そう考えると、サイバネティック・パラダイムの重要性が浮上してきます。