AIは「意識」をもつのか?
第5回 真の意味で脳を模倣したAIなら、人のような意識をもつかもしれない

FEATUREおすすめ
テキスト 松下 安武

AIの意識に迫る本連載の第5回(最終回)では、脳と現状のAIの違い、そして人間に近い意識をもちうるかもしれない未来のAIについて大泉氏に聞いた。

取材協力 大泉匡史・東京大学大学院総合文化研究科広域科学専攻広域システム科学系自然体系学講座 准教授

取材:2024年11月16日 東京大学駒場キャンパス大泉研究室

 

大泉匡史(おおいずみ まさふみ)

2005年、東京大学理学部物理学科卒業。2010年、東京大学大学院新領域創成科学研究科にて博士取得。2019年4月より東京大学大学院総合文化研究科広域科学専攻 准教授。共著に『日常と非日常からみる こころと脳の科学』(コロナ社)がある。

 

執筆者プロフィール

松下 安武(まつした やすたけ)

科学ライター・編集者。大学では応用物理学を専攻。20年以上にわたり、科学全般について取材してきた。特に興味のある分野は物理学、宇宙、生命の起源、意識など。

 

 

 

目次

現在のAIを実現している回路は、人間の脳とは似ていない

ニューロモーフィック・コンピュータなら人間のような意識が生じるかもしれない

AIを通して私たちの脳の仕組みに迫る

 

 

 

 

 

現在のAIを実現している回路は、人間の脳とは似ていない

 

意識の数学的な理論である統合情報理論に基づいて考えると、AIは意識をもちうるのだろうか? 大泉氏は「ネットワークを構築している物理的実体」が重要だと語る。

 

大泉 脳には情報を担う実体として1000億個程度のニューロン(神経細胞)があり、それらが複雑につながって活発に信号をやり取りしています。このようなニューロンのネットワークという物理的実体によって、脳は意識を生み出しているのです。

一方、AIのニューラルネットワークの模式図に出てくる人工ニューロン(図5-1の右)は、物理的実体ではありません。人工ニューロンは、あくまでコンピュータ内の電子回路で行われているプログラムを抽象的なアルゴリズム(計算処理の過程)として図示したものであり、脳のニューロンに相当する物理的な実体が人工ニューロンというわけではないのです。

実際の計算は、コンピュータ内にある半導体でできた素子で行われており(図5-2)、そのネットワークのつながり方や信号のやり取りの仕方は人間の脳とはあまり似ていません。この辺りのことは一般向けの本や記事には明示的に書かれていませんから、多くの方が誤解されているのではないかと思います。

 

図5-1 脳のニューロンのネットワーク(左)とAIのニューラルネットワーク(右) [連載の第1回に掲載した図を再掲]

 

ニューロンは物理的実体だが、人工ニューロンは物理的実体として電子回路の中に存在しているわけではない。

 

 

図5-2 コンピュータ内の基本的な論理演算回路の例

 

①AND回路:二つの入力がともに1のときに1を出力し、それ以外は0を出力する。

②OR回路:二つの入力のうち、少なくともどちらか一方が1のときは1を出力する。入力が両方とも0の場合は0を出力する。

③NOT回路:入力の信号を反転させる。つまり、0が入力されたら1を出力し、1が入力されたら0を出力する。

こういった論理演算回路は半導体で作られており、これらを組み合わせることで複雑な計算を実現している。

 

統合情報理論で最も重要な統合情報量(意識の量/意識レベルに対応すると仮定されているシステムの情報量。詳しくは連載の第2回を参照)は、実際に物理的に実装されている素子の間の信号のやり取りに基づいて計算する必要がある。つまりAIの統合情報量は、実装されている半導体の素子レベルで計算しなければならない。また、クオリアと対応するとされているシステムの情報構造(詳しくは連載の第3回を参照)も、半導体の素子レベルで考えなければならない。

 

大泉 現在のAIの統合情報量が実際に素子レベルで計算してどのくらいの値になるのかはよく分かっていません。また、脳の統合情報量も正確に計算できてはいません。ただし、脳が図5-3Eのようなリカレントネットワークで構成されていること、AIの素子レベルでの実装が主に図5-3Dのようなフィードフォワードネットワークで構成されていることを考えると、直感的には脳の統合情報量の方が圧倒的に大きいだろうとは思います。

 

図5-3 ネットワークの統合情報量 [連載の第2回に掲載した図を再掲]

 

D.フィードフォワードネットワーク:入力された情報が一方向にのみ伝わっていき、出力に至るようなネットワーク。実際のAIでは、静止画の解析など時間を含まない用途に向いている。統合情報量は小さい。

E.リカレントネットワーク:情報が一方向だけではなく、出力が後戻りして再び入力されるような構造をもったネットワーク。過去の情報をもう一度、入力に戻して使うことができるので、実際のAIでは、文章の前後関係を読み取るなど、時系列を考慮する必要がある用途に使われる。統合情報量は大きい。

 

ただし、AIの意識レベルについて明確なことは言えないと大泉氏は指摘する。

 

大泉 AIは意識をもつのか、もたないのかと、答えを単純に「ある・なし」の2つに分けることには、私はあまり意味がないと考えています。重要なのは、「どういう意識をもちうるのか」ということではないでしょうか。

AIが意識をもちうると仮定した場合、統合情報理論に基づいて考えると、その意識の質については、人間の脳とAIで著しく異なるだろうということは簡単に予測できます。

仮に現状のAIもしくはその延長線上で将来実現されるAIが意識をもっていたとしても、私たちの脳に生じるクオリアとは全く違うものであるはずです。統合情報理論では、クオリアはネットワークの情報構造と対応すると考えますが、先ほどお話した通り、コンピュータ内では、ニューラルネットワークの模式図の通りに素子が結びついているわけではなく、素子のネットワークが脳とAIで似ても似つかないからです。

意識の質、つまりクオリアが全然違うわけですから、脳とAIの意識の量(意識レベル)を比較してもあまり意味がないのではないでしょうか。

確かにAIは人間と自然な会話ができるようになってきています。機能としては確かに人間っぽくなってきているわけですが、統合情報理論に基づいて考えると、その主観・意識はもうとんでもなく人間とは違うものだろうと予測されます。“異世界の存在”だと言ってもいいかもしれません。

現在のAIの延長線上で、本当に人間と全く同じように振る舞うようなロボットができたら、私たちは「人間と同じような意識をもっているに違いない」と考えてしまうかもしれません。しかし、脳とは物理的な実装が異なるAIが人間と同じように振る舞ったとしても、「人間と同じような意識をもっているわけではない」とドライに考えた方が妥当なのではないでしょうか。

 

1 2 3