AIは「意識」をもつのか?
第4回 AIの意識に対する「二つの立場」

FEATUREおすすめ
聞き手 松下 安武
科学ライター・編集者。大学では応用物理学を専攻。20年以上にわたり、科学全般について取材してきた。特に興味のある分野は物理学、宇宙、生命の起源、意識など。

AIは「哲学的ゾンビ」なのか?

ChatGPTのような大規模言語モデルのAIは、基本的には学習した大量のデータをもとに、「次に来る可能性が高い単語は何か」の予測を繰り返している。つまり私たち人間とは異なる言葉の紡ぎ方をしているのだ。にもかかわらず、人間と見分けがつかないくらいの会話ができるようになってきた。これは異なるアルゴリズム(処理の手順)で、「自然な会話を行う」という同じ「機能」を実現しうることを意味している。

ここで、AIの意識を考えるうえで参考になる、哲学者ジョン・サールが提示した「中国語の部屋」という有名な思考実験を紹介しよう。

中国語を全く理解できない人に部屋の中に入ってもらう。部屋には小さな小窓があり、そこから中国語で書かれた質問文の紙を出し入れすることができる。また、部屋の中には、非常に分厚いマニュアルがあり、そこにはあらゆる中国語の質問に対する適切な回答が記載されている。

部屋の外にいる人は、室内の人に小窓を通して中国語で様々な質問をする。部屋の中の人はその質問の意味を全く理解していないが、マニュアルに従って機械的に回答を書き写し、小窓から返す。部屋の外にいる人からすると、部屋の中にいる人は中国語を完全に理解しているように見えるだろう。この思考実験では部屋の中に人間を入れているが、以上のことを自動でこなせる機械で置き換えてもいい。

大泉 この思考実験は、主観的な意識が空っぽでも、機能としてはまさに人間のように見える存在があり得るということを示しています。

哲学者のデイヴィッド・チャーマーズは、外見や解剖学的構造、行動の面からは人間と全く区別がつかないけれども、意識やクオリアをもたない存在を「哲学的ゾンビ(Philosophical zombie)」と呼びました。将来、人間と全く区別がつかないAIを搭載したロボットが誕生したとしても、それは哲学的ゾンビかもしれません。

例えば、赤いリンゴを前に置くと、「赤色です」と答える機械を考えてみよう。このような機械はどのようにすれば実現するだろうか? まず赤色の光、つまり光の波長(波の山と山の間隔)が640~770 ナノメートル(100ナノメートルは1万分の1ミリメートル)の光だけに反応する光センサーを用意する。この光センサーは簡単な電子回路に接続されており、光センサーが赤色の光を受け取ったら、その電子回路に電流が流れる。電子回路は、電流が流れたら接続されたスピーカーから「赤色です」という音声を流すようにプログラムされている――。こんな装置を用意すれば、赤い物体が前に置かれたら、「赤色です」と答えるようになるだろう。

では、この装置に赤色のクオリアは生じているだろうか? クオリアがどのようにしたら生じるかは分かっていないので断言はできないが、多くの人はこんなシンプルな装置にクオリアなど発生しないと考えるだろう。

この装置は、赤色の物体に対して「赤色です」と答えることしかできないが、同じような仕組みをどんどん足していって、様々な色や明るさ、物の形を答えることができるようにしていき、さらには音や匂いのセンサーなどもつけていけば、最終的には哲学的ゾンビが出来上がるだろう。

大泉 ChatGPTあるいはそれ以上に高性能なAIを搭載したロボットがいて、ロボットの体も非常に人間っぽく作られていたとしましょう。動きも非常に自然で人間のように見える。そんなロボットを見た時に、「このロボットに意識はあると思いますか」と聞かれたら、多くの人は「意識はあると思う」と答えるでしょう。

ドラえもんのアニメを見ているときも、私たちは暗黙のうちにドラえもんには「意識がある」とみなしているはずです。ドラえもんを哲学的ゾンビだと思ってアニメを見ている人はおそらくいないのではないでしょうか。しかしそれは機能主義的な考え方であって、正しいとは限らないのです。

仮に「人間に近い機能を持っているAIには意識があるとみなす」という立場を取るとすると、その意識があるAIを無下にしていいのかという問題が将来、出てくると思います。「AIに人権はあるのか」という問題も近い将来、絵空事ではなく、現実化するかもしれません。

しかしAIがいくら人間と同じような振る舞いを見せているからといって意識をもっているとは限りませんし、たとえ何らかの意識のようなものを持っていたとしても、私たちの意識とは似ても似つかないものかもしれません。このような問題は機能主義だけで考えるべきではないと思います。

1 2