LLM(大規模言語モデル)は「言語ゲーム」的か
――東京女子大学現代教養学部准教授・大谷弘氏に聞く(1)

FEATUREおすすめ
聞き手 都築 正明(IT批評編集部)/桐原永叔(IT批評編集長)

記号と論理のリールで進化してきたAIは、知覚と経験を重ねる深層学習を経て自然言語を生成するLLM(Large Language Models:大規模言語モデル)に至っている。AIに大いなる進化をもらたした転換を、言語の分析を記号哲学から言語実践へと展開した哲学者・ウィトゲンシュタインの思想と重ねてみる。ウィトゲンシュタイン研究を専門とする東京女子大学現代教養学部准教授・大谷弘氏に聞いた。

取材:2023年7月26日 東京女子大学大谷研究室にて

 

 

大谷 弘(おおたに ひろし)

1979年京都府生まれ。東京大学大学院人文社会系研究科基礎文化研究専攻博士課程満期退学。博士(文学)。東京女子大学現代教養学部准教授。専門は西洋哲学。著書に  (筑摩書房)、 『ウィトゲンシュタイン 明確化の哲学』(青土社)、『「常識」によって新たな世界は切り拓けるか――コモン・センスの哲学と思想史』(共編著、晃洋書房)、『因果・動物・所有――一ノ瀬哲学をめぐる対話』(共編著、武蔵野大学出版会)、訳書として『ウィトゲンシュタインの講義 数学の基礎篇 ケンブリッジ1939年』(共訳、講談社学術文庫)がある。

 

 

 

目次

「哲学する」を哲学するメタ哲学

LLM(大規模言語モデル)は「言語ゲーム」的か

LLM(大規模言語モデル)には委ねられないことと人間の役割

 

 

 

 

 

「哲学する」を哲学するメタ哲学

 

都築 正明(IT批評編集部 以下、都築) まず、先生の来歴をお聞かせください。

 

大谷 弘氏(以下、大谷) 出身は京都で、高校生まで京都で過ごしました。そのころは、思想や哲学には興味がなく、政治学や国際関係などを学びたいと思いつつ東京大学の文科Ⅲ類に入りました。ただ政治学の授業などに出席していても、それほど楽しいとは思えなかったのです。私は1998年に入学したのですが、当時は講談社の「現代思想の冒険者たち」という哲学者紹介のシリーズが刊行中で、飯田隆さんがウィトゲンシュタインについて書いていましたし、哲学者、倫理学者の永井均さんが著した『ウィトゲンシュタイン入門』(ちくま新書)も刊行から間もなかったころでした。そうしたものを読んで、面白いと思いはじめました。私は読んでいませんでしたが、東浩紀さんの『存在論的、郵便的―ジャック・デリダについて』(新潮社)もそのころ出版されましたし、フランス現代思想も盛り上がっていました。東大駒場では科学哲学の大家である大森荘蔵さんの影響を受けた方々が40代半ばぐらいの年齢で教えていらっしゃいましたし、言語哲学者の飯田隆さんが勁草書房から刊行していた「言語哲学大全」もまだ完結してないというタイミングでした。

 

都築 先生はどのような講義内容やスタイルをとられているのでしょう。

 

大谷 標準的ではあるのですが、なるべく学生に話してもらうよう心がけています。自分が面白いと思っていないと、やはり学生も面白がってくれませんから、テーマごとに自分でも興味のある話題を提供したいと思っています。東京女子大学の授業は科目の内容が細かく決まっていて、ある程度決まった枠で話すことになるのですが、西洋近代哲学史の講義では、近代哲学の祖であるデカルトからはじめて、ジョン・ロック、ジョージ・バークリ、デイヴィッド・ヒュームといったイギリス経験論から、スコットランド常識学派の哲学者トマス・リードまでを講義しました。他に当時のフェミニズムの哲学者メアリ・ウルストンクラフトを紹介したりもします。

 

都築 近世哲学の流れを追っていくことになりますね。

 

大谷 当時は科学革命があって科学が権威を獲得しはじめた時代ですが、一方でキリスト教の権威も強く残っていました。デカルトにせよ、ジョン・ロックにせよ、キリスト教神学を背景とした中世のスコラ哲学とは違う、新しい思想であることを強調します。実際は連続しているところもありますが、そこで新しい哲学を目指した人たちの哲学観はどういうものだったのかを考えていきました。デカルトとロックは異なるメタ哲学--哲学についての哲学--を持っています。また同じ経験論でもヒュームとロックとでは異なります。あるいは、ウルストンクラフトは非常に独特のスタイルで思考しています。こうしたことをみながら、哲学とはどのような営みなのかを教える授業です。

 

都築 当時の科学・哲学・宗教を複合的に考えるわけですね。

 

大谷 それに加えて、私はトマス・リードという哲学者に関心があります。彼は理性や観念ではなく、「コモン・センス」といわれる健全な判断能力に真理や秩序の論拠を求めました。科学と宗教と哲学に常識を加えた4つの要素が、 それぞれの哲学者のなかでどのように絡み合って考えられているのかを哲学していくことをテーマにしています。思想的展開としてのストーリーをつくるというよりも、それぞれの差異を追っていく講義です。

 

 

LLM(大規模言語モデル)は「言語ゲーム」的か

 

都築 先生は、前期ウィトゲンシュタインの著作『論理哲学論考』(岩波文庫 以下、『論考』)をどう読まれているのでしょう。

 

大谷 『論考』は、形而上学を沈黙させることをテーマにした本です。ウィトゲンシュタインは、まず不毛な議論に陥りがちな形而上学の論争を取り除いたうえで哲学を行おうとしたわけです。『論考』に記された個別のセクションを取りあげて、それぞれにどのような洞察があるかを論じる議論も数多くあります。しかし私の場合は『論考』全体で目指しているメタ哲学を把握したうえで、さまざまな議論の位置づけを考えています。『論考』にはまず、明確な記号言語を提示するという意図があります。日常言語というのは曖昧だったり多義的だったりしますから、論理空間のなかで一つひとつの命題が、どの場所にあるのかが見えにくくなっています。『論考』では、そこをクリアに提示する記号言語をいかにして用意するかということが語られています。そして、そういった記号言語が用意されたときに、個別の哲学的対話のなかに、形而上学者の言葉が翻訳できないことが示されれば、形而上学者の言葉がナンセンスだということが判明して、形而上学を「語り得ぬもの」として沈黙させることができる。私としては、言語を明確化していくという課題に向けて書かれている本だという捉え方をしています。

 

都築 言語の明確化というのは、どういうことでしょう。

 

大谷 まず命題が、どのように対象物を写し描き出して(写像)いるかということ、そしてどのような論理に従って、論理空間のなかでどんな位置を占めているのかを明らかにするということです。

 

都築 そうした記号論理学の考え方は、コンピュータのプログラム言語にも反映されていますよね。機械を動かすための0/1や16進数でできた機械語があって、それを使いやすくして、左右に桁をずらすような命令をするアセンブリ言語ができます。その後、それをさらに扱いやすくした高級言語が生まれて現在に至りますが、実際にコンピュータ内部で論理演算をしていることは変わりません。

 

大谷 当時、記号論理学を使って明確化を行うということは、フレーゲやラッセルといった数学者、論理学者たちがウィトゲンシュタインに先駆けて行っていました。『論考』の体系は非常に禁欲的であり、コンピュータのプログラム言語の前史として考えたとき、その位置づけがどのようなものになるかは興味深い研究テーマですね。

 

都築 処理を手続き化していくような発想はコンピュータの進化も同じですよね。脳神経回路を記号化したニューラルネットワークを構築して人間の知能を体系的に再現しようとする試みがなされましたから。そこが行き詰まったところで、ビッグデータを強化学習させると体系的なところはわからないけれど正しい結果が出てくることがわかるようになりました。これは、大量の言語コーパスを学習させたところ、なめらかな自然言語を出力するようになった現在のLLM(Large Language Models:大規模言語モデル)につながります。文法的な裏づけがないため、言語学の大家、チョムスキーなどはLLMを「凡庸な悪」として批判するわけですが。

 

大谷 脳に言語に特化したモジュールが生得的に備わっているというチョムスキーは演繹的なモデルを考えているわけですよね。そうするとパフォーマンスの部分がブラックボックスになってしまう。後期ウィトゲンシュタインはパフォーマンスの部分に注目していますから、矛盾するとはいわないまでも、注目する点が異なっている印象があります。

 

都築 チョムスキーの立場からは、語と語の繋がりだけで会話ができてしまうと「普遍文法」という自説が否定されることになるので容認しがたいのだと思います。一方、最近は今井むつみさんと秋田喜美さんの共著『言語の本質-ことばはどう生まれ、進化したか』(中公新書)が話題になっています。実世界にある事物の名称とコンピューター内部で扱う記号とが結びついていない、この本の言葉でいえば「記号接地」をしていない言語がAIによって発達してしまう現状について考えなければならないと著者たちが述べている箇所が印象的でした。著者たちは別のところでも、ChatGPTについて記号接地していないから考えることができないと言っています。

 

大谷 やはり言葉が意味を持つということがキーワードになってきますね。少し前はAI「東ロボくん」の研究開発をされていた新井紀子さんが似たような主張をされていました。私と同じく東京女子大学の哲学専攻で教えられている黒崎政男先生はAIの哲学を専門とされているのですが、黒崎ゼミの学生の卒業論文を読んだりすると、同じように結論づけられているものが多くありました。私としては「AIは意味が理解できない」といわれても、そもそも意味を理解するとはどういうことなのだろうという疑問が湧いてきます。 なんとなく観念を把握するようなイメージだけで捉えられていては不十分で、そこをしっかり考える余地があるのではないかと思います。記号接地や身体性ということがテーマにはなるとは思いますが「意味を理解する」というフワッとした言葉を用いて、それがあれば言語で、なければ言語ではないと断じるのは適切なことではないと思います。

 

桐原 永叔(IT批評編集長 以下、桐原) 私は、『言語の本質』が注目を浴びているのは身体感覚から発したオノマトペとあわせて記号接地を論じたことで、言葉の意味というものを考え直すことができるからだと思います。その文脈でChatGPTが出力しているのは身体性を持った言語ではないというのは、多くの人が潜在的に抱えている願望に応えるものとして喜ばれている気がします。

 

都築 ただ記号接地や身体性ということで考えると、LLMの教師モデルとなっている言語コーパスは世間の人たちがネットに書き込んだ言葉なので、すでに生活のなかで接地した言語が多く含まれているともいえます。それをさまざまなパターンで学習して確率論的にならべて文章を生成しています。それはある意味でウィトゲンシュタインのいう「言語ゲーム」に近いようにも思うのですが。

 

大谷 そうですね。言語ゲームというのは、厳密にルールに従うというよりも、パターンの把握をベースにしていると考えられます。そして、そのパターンは生活から生まれていると考えられています。その意味では、ChatGPTなども膨大なパターンを学習している。ロジックありきではなくパターンの把握から言語にアプローチしているという意味では、似ているともいえます。ただ、ウィトゲンシュタインのいう言語ゲームは実践をバックグラウンドとして整理するという考え方なので、データの世界に限られるChatGPTの現場とは大きく違うような気もします。どこまでを実践の現場として捉えるかは、やはり難しいところですね。

 

 

 

 

 

LLM(大規模言語モデル)には委ねられないことと人間の役割

 

桐原 ガリレオの「自然は数学の言葉で書かれている」という言葉をなぞるようにAIの研究も数学の言葉で自然を書き直すかのように進んできました。自然言語も数学の言葉として機械化してみようとしたもののルールベースではうまくいかず、そこが数学の言葉の限界のように思われました。数学では簡単に自然を書き換えられないとなったときに、ChatGPTのような技術がブレイクスルーになって、また一層、数学による自然の書き換え、もっと言えば技術の宗教化が加速するようにも思えます。

 

大谷 宗教の権威が科学の権威へと置き換わっている側面は確かにあります。ただし現状のところChatGPTは、人間に代わる知性というよりPCと同じようなツールだと思います。もちろん今後どうなるのかはわかりませんし、新しい技術が導入されたときにどういうリスクがあるのかについては、きちんと考えなければなりません。ただ、今のところ人間に代わる自律的なものができたというレベルではないと思います。

 

桐原 先生が訳された『ウィトゲンシュタインの講義 数学の基礎篇 ケンブリッジ 1939年』(講談社学術文庫)にもチューリングが登場していますが、相手がコンピュータか人間かを見破る「イミテーション・ゲーム」としてチューリングが提唱して、クリアできれば人間と同等の知能として認められると予測したチューリングテストのレベルは、ChatGPTではクリアできているようです。

 

大谷 たしかにチューリングテストはパスしていると見做せそうな状況ですね。それでも人間に代わるまでに至らないということは、人間が、そのレベルだけではなかったということが判明したともいえます。

 

桐原 ChatGPTが人間と同等とは見做せないという感覚が定着したら、人間という存在が生活の経験や身体の感覚から切り離すことができないという考えをAI研究にもたらして、むしろトランスヒューマンのような宗教がかった発想が鎮まるかもしれないと思いました。今、お話を伺っていて。

 

大谷 現状ではツールとしての位置づけなので、使う責任はやはり人間の側にあるということだと思います。ChatGPTを使ってみると、確かに人間と話しているようではありつつも、少しピントのずれた会話をしている感覚に陥ります。川添愛さんがあるエッセイで面白い例を挙げられていました。ダチョウ倶楽部の上島竜兵さんが「押すなよ、絶対に押すなよ」と言った途端に熱湯に落とされるという「お約束」をChatGPTに投げかけたところ「危険だからやめましょう」とたしなめられたという。どこかポイントがずれた回答でおもしろいですよね。こういうところも改良されていくのかもしれませんが、いずれにせよ現状ではChatGPTは責任を負わせることができるというような強い意味での主体にはなりえないように思います。

 

都築 先生の『ウィトゲンシュタイン 明確化の哲学』(青土社)で「サクラクレパスには“まつざきしげるいろ”がある」という記述を読んで、さっそくChatGPTに「肌色をCMYKのパーセンテージで表してください」と問いかけてみたところ「肌色は多様であり、個人によっても異なる場合があります」というポリティカル・コレクトネスに則った回答が返ってきました。

 

大谷 そこは、コーパスの強化学習ではなく人間側が躾けているわけで、ブラックボックス化するわけにはいかない。ある種の倫理観を前提とするので、そこは人間の役割ですよね。その意味では、今のところ、私たちは人間に対して認めている言語ゲームをすべてChatGPTに認めているわけではありません。

(2)に続く