選択と相対 ヒュームと因果推論
第2回 AGIの倫理と自由意志のゆくえ

REVIEWおすすめ
著者 桐原 永叔
IT批評編集長

AIの急速な進化により、技術の未来予測が覆される中、AGIの本質や倫理的課題が改めて問われている。特に「反省する知能」を持つAIの必要性が議論され、人間の知能との違いや自由意志の有無が焦点となる。

目次

AGIの要件

スターゲイトイニシアティブに日本企業として出資したのはソフトバンクである。
トランプ政権にいるイーロン・マスクはその投資額に対し、名指しで疑念を発したりしたのだが、このあたりはイーロン・マスクとOpenAIのCEO、サム・アルトマンとの因縁めいた話の類だろう。

ソフトバンクグループとOpenAIが合弁会社「SB OpenAI Japan」を設立するとのニュースが流れたのは2月3日のことだ。来日したサム・アルトマンと登壇したソフトバンクグループの孫正義氏は、日本の大企業に向けて業務効率化と意思決定支援を行う最先端AIツール「クリスタル・インテリジェンス」の提供を開始すると発表した。
孫氏はさらに「1年前にはAGI(汎用人工知能は)は『10年以内にやってくる』と申し上げたが、数カ月前に私は『2~3年以内』と訂正した。今、私は『本当にもっと早くやってくる』とコメントしたい」と述べた。

孫氏が、こうした発言を繰り返してきたことはこのコメントのなかでも窺い知れるし、そのたびにちょっとしたニュースにはなってきたが、今回ほど氏特有の煽り抜きに現実味をもって感じられたのは初めてだ。

AGI(汎用人工知能)なんて、まだ先の話だと思っていたのに、ここ数年、ここ数カ月の信じられないほどの進化のスピードによって大きく印象が変化した。テクノロジーの進化予測の常識がすっかり破壊されてしまい、信じられないような進化を“信じざるをえない”事態に至っているためだろう。

もちろん、AGIの要件を「人間と同等あるいはそれ以上の知能」とひと言でいったところで、人間の知能さえ要件を定義できるものではないのだから、さまざまに知能は解釈できるものだし、不可知論的な立場をとれば永遠に知能など理解することはないということもできる。

しかし、孫氏らが目指す自律的に判断して業務を行うという、昨今話題のAIエージェントをもうすこし高等にしたレベルのAGIであれば、遠からず実現しそうだ。

フレーム問題で問われるような常識の把握や、ハードプロムレムと言われるような主観的な意識の取得、わずかな経験から論理を導いたり抽象化したりして世界をメタ認知するといった高度な課題は挙げればキリがない。ただ、現に現在のAIは概念登場の当初期に想定されていた汎用的な知能のレベルに達していると考えられる。すでに、「チューリングテスト」の域をChatGPTが易々とクリアしているのは誰もが感じている。

決定論的な“反省”

一方で、わたしたちはAGI誕生を祝福できるほど呑気ではない。

人間の知能を凌駕するAGIが人間の脅威になりうる未来も同時に想像しているからだ。単にAIに“仕事を奪われる式”の脅威だけならまだしも──いや、これはもちろん重要だ。しかし仕事を奪われるのは決して現状の経済格差の敗者のほうとは限らない──、AIが優れた知能と処理能力で政治や経済をコントロールする可能性、あるいは軍事目的での使用によって紛争の犠牲者が増加するといった脅威もある。

その点で、AGIにいち早く備えてほしいのは、常識や意識、感情という掴みどころのないものよりも、端的に道徳や倫理のようなものだろう。意識、感情と、道徳、倫理の関係がいかようなものであるかは古くから哲学の問題であったし、カントあたりを参照してなにかを語らなければならないのかもしれないが、残念ながらわたしにその力はない。
わたしが、AIに対し人と同じように生活するレベルに達するために求める“自律”は、指示がなくともみずからの判断で処理や行動を始動するといった類のことではない。わたしが求めるAIの“自律”とは、みずからを省みる知能を有することだ。みずからの処理や行動が、いかなる結果を導きうるのかを想定する知能だ。端的に言えば、反省ができるかどうかということだ。

反省などというと、よく議論される代表的なものに「自由意志」の問題が想起されるあもしれない。決定論的なルールに準拠した処理や行動ではなく、AIが自由に──ときにはルールを犯して──処理、行動を選択するということになろうが、わたしたち人間の自由意志さえ哲学的、心理学的に難解な問題でありAIの自由意志を論じる力はこれもまたわたしにはない。

とはいえ、AIに求める反省とは人が人に求めるべき反省とはやや違うものであると考えている。人がAIに求める“反省”となれば「自由意志」の有無は一旦、保留することはできないだろうか。

アルゴリズムに基づいた決定論的な“反省”。AIに求めるそれはフィードバックループのような構造的なものであっても構わないのではないか。価値判断をできなくとも、アーキテクチャとして失敗を繰り返さなければ良いのではないか。人間のような罪悪感までをもつことは不要なのではないか。

いや、待てよ。価値判断がなければAIも自律的にフィードバックループをまわすことはできないのかもしれない。だいぶ、頭の中が混乱してきてしまっている。