筑波大学名誉教授・精神科医 斎藤環氏に聞く 第4回
文脈把握と不確実性への対処を可能にするシステムとは

FEATUREおすすめ
聞き手 都築 正明
IT批評編集部

無意識における言語の連鎖はどうなされているか

無意識を言語構造として考えると、接地がなされないまま記号が連鎖している状況が、LLMにおけるデータの状態に近いとは考えられるでしょうか。

斎藤 私は異なると思っています。それはラカン的な文脈で、言語は記号ではないと考えているからです。記号と意味とは、ほぼ1対1対応しています。一方シニフィアンは常に多義的です。どんなシーニュも複数の意味を持っていて、意味を1つに決めるのはコンテクストです。そしてその機能は無意識のレベルで保たれています。ですから、記号接地問題としていわれるような、身体から離れた記号が浮遊している状態とは異なると考えられます。今後のAI研究においては、シニフィアンの連鎖をもたらしている身体性を取り込めるかどうかが重要になってくると思います。

そうすると、機械と身体を同一視して考えるのは、なお難しくなりますね。

斎藤 ラカンは「メタ言語は存在しない」とも言っています。ソフトウェアはさまざまなプログラミング言語でコーディングされますが、作動にあたってはそれを機械語に翻訳して作動しています。メタ言語がないというのは、人間にはこの機械語にあたるものがないということです。これはとても大事なことですが、おそらく多くの人工知能研究者は、人間にもメタ言語があることを前提としています。ラカンは人間の心にはそれがないと言い切っていて、私もそれが正しいと考えています。つまり、無意識は自然言語のままで構成されていて、人間は無意識の欲動において行動が動機づけされているということです。身体を持たず、意味も理解できず、コンテクストも把握できないAIが本当の意味で思考することは、とても困難だと思います。

形式言語はチョムスキー階層3という包含階層に基づいていますが、人間にも普遍言語のようなメタ言語があることを想定しないと翻訳が不可能だということになります。

斎藤 階層構造を想定したほうが科学として扱いやすいですし、人工知能の研究者もそれをあてにしているのかもしれません。しかし、フロイトやラカンの説に基づくと、人の心には階層構造がないことになります。階層構造がないところに強引に階層構造を持ち込んで、まともに作動するものをつくるのは不可能にちかいです。

言語と意味とが1対1対応をしておらず、文脈依存的だったり恣意的だったりすることを考えると、ラカンがいう現実界・象徴界・想像界という分別のなかでは知性や心をシミュレートするということは、どのような位置づけになるのでしょう。

斎藤 パソコンのアナロジーでいうと、現実界はCPUに、象徴界はOSに、また想像界はアプリに対応させることができます。そうすると、人の心のシミュレーションについては、もっとも浅いアプリのレベルでは処理できるかもしれません。しかしOSのレベルで可能かどうかには疑問があります。まして現実界や象徴界をAIで処理することは難しいと想定しています。

会話における言語には、1対1対応ではなく即興的に生じるものも多いですし、その場かぎりの意味を持つ場合も多いですよね。

斎藤 いわゆるフレーム問題も、私の理解ではAIがコンテクストを理解できないということです。ロボット研究者の方に聞いても、やはり大量のデータを投入して、力業でコンテクストを理解しているかのようにみせかけることはできても、フレーム問題は本質的には解決できていないということでした。

さまざまな場面を、コンテクストではなく条件分岐で記述することの限界がフレーム問題を引き起こすとされています。

斎藤 コンテクストの把握というのは難しい問題で、ベイトソンの学習理論4で言うと、同じことを繰り返して学習が起こらない状態が学習ゼロにあたります。初期のコンピュータはこの状態です。学習Ⅰでは、パブロフの犬の実験のように、ある刺激にたいして異なる報酬系が対応します。学習Ⅱは、学習Ⅰが起こるコンテクストを理解することを意味します。イルカショーを例に挙げると、芸をしたら餌をあげることの繰り返しで学習Ⅰが成立します。ここまではAIにもできる。あるとき研究者が、同じ芸をしただけでは餌をあげず、前回と違う芸をしたら餌をあげることにしたら、最初は混乱したイルカも、やがてそのコンテクストを理解して、毎回異なる芸をして餌をもらうようになる――これが学習Ⅱです。この学習Ⅱは、AIがまだ及ばないところです。学習Ⅰを大量に行うことは可能ですし得意ですが、学習Ⅱはまさにコンテクストの学習ですから、原理的に無理なわけです。ベイトソンの理論では、この学習Ⅱにおいて自己や性格、人格などの人間性がつくられるとされています。学習Ⅲは、自分のおかれたコンテクストを相対化して理解することですが、そこで失敗したのがダブルバインドの状態で、コンテクストを読もうとして読めなかった人が統合失調症になってしまうとされていたわけです(現在、病因論としては過去のものですが)。私は、学習ⅡすらできないAIが人間性を獲得することはできないと考えています。

1 2 3