玉川大学文学部名誉教授 岡本裕一朗氏に聞く
(3)本当のポスト・モダンはこれから到来する

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

ChatGPTが問いかける、理解するということ

桐原 現在、ChatGPTが話題を集めています。それこそジョン・サールの「中国語の部屋1」のレベルはクリアしていて、チューリングテストにも合格するレベルに達しているとも考えられます。思想や認知科学において、人工知能について考えてきた人々には大きなインパクトを与えたと思うのですが、いかがでしょう。

岡本 大きな衝撃でした。今までは、AIが文章を書いたとしても、どうしても違和感を抱かざるをえないだろうというのが私たちの印象でした。しかし、ChatGPTはそのレベルを超えてしまいました。AIは文章を書けたとしても、意味内容はわからないだろうという人もいます。しかし、私たちが文章を読み書きするときに、どれだけ意味内容を理解しているかどうか。

桐原 GPTでは、5 兆語のコーパスから、意味の類似ではなく単語の組み合わせの観点から学習して意味が通じる文章を生成していると言われます。これは中国語の単語の意味を知らないまま、この単語のあとにはこの単語をつなげて……というマニュアルに従っている「中国語の部屋」の中の人と同じことをしているともいえますよね。

岡本 それを示されると、私たちも、実際には過去の経験に基づいてGPTや「中国語の部屋」と同じことをしているにすぎない可能性もあるわけです。私たちにとっての、意味がわかるという概念が転換するかもしれません。AIは意味もわからずただ計算しているだけだから、人間の思考とは比べものにならないとする指摘もあります。しかし今後、そうした区別に意味がなくなるかもしれません。

桐原 そうした変化は、この 10 年ぐらいの間に起きるかもしれないですね。

岡本 理解についての概念が、完璧に覆るだろうと思います。「AIに哲学ができますか?」と問われて、「AIに哲学はできるわけがない」という哲学者はたくさんいました。私はそれを傍目に「あなたがしている程度のことはAIにだってできるよ」と構えていたのですが、もうそれどころではない。ほとんどの哲学教師が職を失うかもしれないところまできています。私たちにとって、理解するとはなにか、意味とはなにか、そしてそもそも意味がわかるとはなにか、そうした根本にある認識が一気に変わることも考えられます。

桐原 ChatGPTはよく間違いますが、その間違いについてスラスラと説明していきます。ChatGPT以前の世界を知っている私たちはその間違いに気づくことができますが、ChatGPT以降の人たちが、その間違いに気づけるのかどうかは不安です。

岡本 区別するためには、正しいことと間違っていることとを理解している必要があります。現在問われているのは、はたして私たちはそのレベルにいるのかどうかということです。

桐原 正誤の基準がChatGPTになると、ChatGPTの間違いがむしろ正解になる可能性もある。

岡本 そもそも私たちが正解だと思い込んでいることも、ChatGPTの間違いと同じレベルのことかもしれない。いま私たちが正しいと思っていることについても確証の持ちようがないわけです。

桐原 そうすると世の中がますます相対主義的になりませんか。

岡本 そうなると思います。相対主義批判でデビューしたマルクス・ガブリエルは、AIが支配する世界の可能性を一笑に付してみせますけれど。(了)

1 2 3