東京女子大学現代教養学部准教授・大谷弘氏に聞く
(1)LLM(大規模言語モデル)は「言語ゲーム」的か

FEATUREおすすめ
聞き手 都築 正明(IT批評編集部)/桐原永叔(IT批評編集長)

LLM(大規模言語モデル)には委ねられないことと人間の役割

桐原 ガリレオの「自然は数学の言葉で書かれている」という言葉をなぞるようにAIの研究も数学の言葉で自然を書き直すかのように進んできました。自然言語も数学の言葉として機械化してみようとしたもののルールベースではうまくいかず、そこが数学の言葉の限界のように思われました。数学では簡単に自然を書き換えられないとなったときに、ChatGPTのような技術がブレイクスルーになって、また一層、数学による自然の書き換え、もっと言えば技術の宗教化が加速するようにも思えます。

大谷 宗教の権威が科学の権威へと置き換わっている側面は確かにあります。ただし現状のところChatGPTは、人間に代わる知性というよりPCと同じようなツールだと思います。もちろん今後どうなるのかはわかりませんし、新しい技術が導入されたときにどういうリスクがあるのかについては、きちんと考えなければなりません。ただ、今のところ人間に代わる自律的なものができたというレベルではないと思います。

桐原 先生が訳された『ウィトゲンシュタインの講義 数学の基礎篇 ケンブリッジ 1939年』(講談社学術文庫)にもチューリングが登場していますが、相手がコンピュータか人間かを見破る「イミテーション・ゲーム」としてチューリングが提唱して、クリアできれば人間と同等の知能として認められると予測したチューリングテストのレベルは、ChatGPTではクリアできているようです。

大谷 たしかにチューリングテストはパスしていると見做せそうな状況ですね。それでも人間に代わるまでに至らないということは、人間が、そのレベルだけではなかったということが判明したともいえます。

桐原 ChatGPTが人間と同等とは見做せないという感覚が定着したら、人間という存在が生活の経験や身体の感覚から切り離すことができないという考えをAI研究にもたらして、むしろトランスヒューマンのような宗教がかった発想が鎮まるかもしれないと思いました。今、お話を伺っていて。

大谷 現状ではツールとしての位置づけなので、使う責任はやはり人間の側にあるということだと思います。ChatGPTを使ってみると、確かに人間と話しているようではありつつも、少しピントのずれた会話をしている感覚に陥ります。川添愛さんがあるエッセイで面白い例を挙げられていました。ダチョウ倶楽部の上島竜兵さんが「押すなよ、絶対に押すなよ」と言った途端に熱湯に落とされるという「お約束」をChatGPTに投げかけたところ「危険だからやめましょう」とたしなめられたという。どこかポイントがずれた回答でおもしろいですよね。こういうところも改良されていくのかもしれませんが、いずれにせよ現状ではChatGPTは責任を負わせることができるというような強い意味での主体にはなりえないように思います。

都築 先生の『ウィトゲンシュタイン 明確化の哲学』(青土社)で「サクラクレパスには“まつざきしげるいろ”がある」という記述を読んで、さっそくChatGPTに「肌色をCMYKのパーセンテージで表してください」と問いかけてみたところ「肌色は多様であり、個人によっても異なる場合があります」というポリティカル・コレクトネスに則った回答が返ってきました。

大谷 そこは、コーパスの強化学習ではなく人間側が躾けているわけで、ブラックボックス化するわけにはいかない。ある種の倫理観を前提とするので、そこは人間の役割ですよね。その意味では、今のところ、私たちは人間に対して認めている言語ゲームをすべてChatGPTに認めているわけではありません。

1 2 3