人間にさえ掴みきれない言語をAIはどこまで掴めるのか
――『言語学バーリ・トゥード』で話題、川添愛氏インタビュー(1)

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

 

自然言語処理は、画像認識と並ぶAIの重要な研究分野である。AIは人間と同様に言葉を操れるようになるのか。私たちがそのことを考える前に、人が言葉を話すことの不思議さを認識しなければならないと指摘してきたのが言語学者であり作家の川添愛氏だ。言語を考えるということはそのまま人間の知性や知能、本能を考える一つの大きな入り口になるし、そこを通らないでAIについて語るのは難しいだろう。多くの著作でAI・コンピュータから言語とは何かについて思考を重ねてきた川添氏に聞いた。

取材/2021年10月27日 オンラインにて

 

 

川添 愛(かわぞえ・あい)

作家。1973年生まれ。九州大学文学部卒業、同大大学院にて博士号(文学)取得。2008年津田塾大学女性研究者支援センター特任准教授、2012年から2016年まで国立情報学研究所社会共有知研究センター特任准教授。専門は言語学、自然言語処理。著書に『白と黒のとびら』(東京大学出版会、2013年)、『精霊の箱(上・下)』(東京大学出版会、2016年)、『自動人形の城』(東京大学出版会、2017年)、『働きたくないイタチと言葉がわかるロボット』(朝日出版社、2017年)、『コンピュータ、どうやってつくったんですか? 』(東京書籍、2018年)、『数の女王』(東京書籍、2019年)、『聖者のかけら』(新潮社、2019年)、『ヒトの言葉 機械の言葉』(角川新書、2020年)、『ふだん使いの言語学』(新潮選書、2021年)、『言語学バーリ・トゥード』(東京大学出版会、2021年)がある。

 

 

【目次】

読者と同じ目線でAIと言語学について語る

人間が簡単にできることがAIには難しいわけ

一見それらしく見えてもAIは「意図」を持っているわけではない

機械自身が「自我」を持つようにならないと、私たち人間のことも想像できない

 

 

 

 

読者と同じ目線でAIと言語学について語る

 

桐原永叔(以下、桐原) もともと言語学をご研究されている川添先生がAIやコンピュータに関わることになったきっかけについてお聞かせください。

 

川添愛氏(以下、川添) 九州大学で文学部に入ったのですが、ちょっとしたきっかけで言語学を専攻することになりました。私がやっていた理論言語学というのは、言葉に関する鋭い感覚が要求されると同時に、科学的なものの考え方も非常に重要視されます。また、言葉の裏にある法則性を理論的に説明する際に、数学やプログラミングなどに通じる形式的な表現力も重要になってきます。そういった考え方が苦手だったことや周りの人たちがすごすぎたこともあり、「言語学に人生はかけられないな」と思い、20代の終わり頃──博士論文を書いている途中だったんですが──、国立情報学研究所にリサーチアシスタントとして移りました。そこから15年ぐらい、自然言語処理というコンピュータで言語を処理する分野で過ごしました。研究者としてどうにかやっていけないかと模索していたのですが、30代の後半になって、身近な人が本を出版したことをきっかけに、自分も本を書きたいと思うようになりました。どんな本を書いたらいいか考えているうちに、自分が普段、理解するのに苦労している数学とかコンピュータとかAIについて、自分なりにわかりやすく書いたら読者と同じ目線で書けるのではないか、一般の人にも喜んで読んでいただけるのではないかと思いました。2013年に最初の本を出版し、2017年にフルタイムの研究者をやめ、文章を書く仕事一本に絞りましたので、今は元言語学研究者で作家という立場になります。

 

桐原 著作を読んで、言葉に関する感覚が、言語学者が書くものと近いようで違うなと感じていたので、今のお話に納得しました。

 

川添 自分としては言語学者としても自然言語処理の研究者としても非常に中途半端だという意識がありまして、専門書を書く立場ではないな、と思っています。あくまで自分の勉強の一環として、教える側でなく学ぶ側の立場で書くということを考えてきたので、読者寄りの視点になっていると思います。

 

桐原 言語学や自然言語処理の難解さというのは、数学的な理解や素養が必要だからということなのでしょうか。

 

川添 私が苦しんだ理由は、数学やコンピュータについての素養がなかったことにあります。単に自然言語処理の分野に飛び込むだけではどうにもならなかったということです。私を雇ってくださった先生は、私が言語学の知見を自然言語処理の中で生かすことを期待しておられたのですが、実際にやってみると、自然言語処理と言語学とは目的がかなり違うことが分かり、どうすれば言語学を役立てられるのか考えるのに苦労しました。

 

 

人間が簡単にできることがAIには難しいわけ

 

桐原 AIを使ってロボットに画像解析させながら、簡単な会話をさせようというサービスのために、ごく簡単なシナリオづくりに取り組んだことがあったのですが、会話を成立させることがいかに大変なことかがわかり途方に暮れたことがあります。ロボットと会話していると錯覚させるだけでもいいと考えていたのですが……。

 

川添 人間の言語って、思っているよりも曖昧ですよね。たとえば「100キロ制限」といった表示自体はありふれたものですが、これだけだといかようにも意味がとれてなんのことかわからない。でも人間はちゃんとその場に応じて理解しています。高速道路で自動車に向けて表示されていれば時速のことだとわかりますし、エレベーターに表示されていれば重量のことだなとわかります。その場その場の文脈を使って人間は理解しているんです。これをコンピュータに理解させようとすると、単に表示されている場所の情報を与えればいいというわけではなく、自動車道やエレベーターの機能についての常識まで教えないといけません。「100キロ制限」のような語彙的な曖昧さというのは、曖昧さのなかでも最も簡単なものなのですが、それでも適切に理解するには相当量の常識が必要ですし、場面ごとの文脈の認識ができないと曖昧さが解消できないという難しさがあります。

 

桐原 AIやロボットに的確に指示を与えることの大変さを考えると、逆にいかに私たち人間が曖昧なやりとりでコミュニケーションを成立させているのかを思い知らされます。

 

川添 たとえば「コップに水を入れてきて」というごく簡単な指示でも、これをロボットにやらせようとすると、複雑で曖昧さに満ちた指示であるということに気がつきます。そもそもどのコップを指しているのか、水をどのぐらい入れるのかとか、なんのためにやるのかが明示されていません。仮に指示した人の意図がロボットに理解できたとしても、コップのなかに虫が入っていたらどうするのか、コップが汚れていたらどうするのか、そういうことは気にするべきなのかしなくてもいいのか、さまざまな判断が求められます。コンピュータがそれを論理的に判断しようとすると、「コップに水を入れる」という命令だけでなく、膨大な状況判断が必要になってきます。「コップに水を入れてきて」というきわめてシンプルな指示を実行するだけでも、ただ言われたことをすればいいのではなく、それに「付随する仕事」や「気をつけるべき点」が出てくるわけです。人間ならば、状況に応じて常識や文脈を考慮し、指示者の意図を瞬時に理解してごく普通のこととして行えるのですが。

 

 

 

 

一見それらしく見えてもAIは「意図」を持っているわけではない

 

桐原 川添先生が『ヒトの言葉 機械の言葉 「人工知能と話す」以前の言語学』などで「意味」と「意図」について書かれているのを読んで、むかし読んだスタニスワフ・レムの『ソラリスの陽のもとに』を思い出しました。これは「IT批評」のレビューにも書いたことなのですが、ソラリスという惑星は人間の形に変容して人間の言葉を意味が伝わるように操るのですが、そこにいったい何の意図があるのかわからないんです。AIもまったく同様で、人間のように喋って、人間のように振舞うから一見それらしく見えますが、実はAIは「意図」を持っていないわけで、それはソラリスと同じだなと。AIが言葉を喋れるようになったり、猫を認識できるようになったりしたことで、漠然と人間に近づいていてきているような気になっていますが、意図を持っていないことには変わりはないわけですよね。

 

ヒトの言葉 機械の言葉 「人工知能と話す」以前の言語学
川添愛著
角川新書
ISBN9784040823485

ソラリス
スタニスワフ・レム著/沼野充義訳
早川書房
ISBN9784150120009

 

 

川添 アラン・チューリングが「機械が人間と見分けがつかない行動をしていたら、その機械には知能があるとみなしてもいい」ということを言いましたよね。それは乱暴な考え方だと批判する人もいますが、私たち人間も他人の知性を判断するときには、結局その人の「知的な行動」を見て判断しているので、けっこう強力な説ではあるんですよね。

 

桐原 「IT批評」で東京大学の松原仁先生に取材させていただき記事にさせていただいたんですが、松原先生は日本人のようにアニミズム的に機械にも心があると信じることも大事ではないかと話されており、なるほどと思ったのですが。

 

川添 機械を相手にするときと、人間どうしの場合とで違いがあるとすれば、後者の場合は相手が自分と同じ体を持っているということですね。相手も自分と似たような臓器を持っていて、脳の構造も同じだろうと。だからこそ、自分と同じように行動していたら中身も自分と同じだろうという判断も、ある程度は信頼できると思います。私たちは犬や猫にも共感したり、彼らにも知性があるとみなしたりしますが、これも「同じ生き物だから」ですよね。私は個人的には、機械は物であり生き物ではない以上、同じように振る舞うからといって知性があると認めるのは難しいと考えています。

 

 

機械自身が「自我」を持つようにならないと、私たち人間のことも想像できない

 

桐原 レムが『ソラリス』についてみずから解説しているものを読むと、人間は知性や知能を人の形をしていると思い込んでいて、人の形をしていない知性や知能をなかなか想定したり想像したりすることができないと言っています。なかなか示唆的だなと思います。もう一つ、松原先生がおっしゃっていて面白いなと感じたのは、日本の技術者は松原先生も含めて「鉄腕アトム」や「ドラえもん」に大きく影響を受けています。つまり単なる道具としてではなく、仲間や友人となりうるロボットを想定している。そこが欧米の研究者との大きな違いではないかと。

 

川添 面白いですね。私は言語という側面から人工知能の技術を見ているのですが、友人とか家族みたいな感じで人工知能と接することができるレベルになるのは、けっこう先のことだなと思っています。相手を人間だと見まごうくらい親しく話ができたり、頼みごとができたり、友人みたいに約束ができたり、そういうレベルになるには、相当いろんな条件が揃わないと難しい気がしています。

 

桐原 なるほど。どんな条件が重要になるんでしょうか。

 

川添 キーとなる概念の一つが「意識」だと思います。少なくとも、機械が私たちと同じような頭脳の構造を持っていて、なおかつ意識を持ち、また「自我」を持つようにならないと、私たち人間と同じような存在と見なすことはできないのではないでしょうか。さらに、ロボットが約束をしたり、責任を持って仕事をしたりするには、ロボット自身が人間社会の一員にならないといけないんじゃないかと思います。以前、名古屋大学でロボット倫理を研究されている久木田水生(くきたみなお)先生が、ロボットが道徳的になるには、ロボット自身に利益を持たせ、なおかつ彼らにその利益を知覚させなければならないと書かれているのを読んで、なるほどと思いました。ロボットが利益を持つということは、ロボットが社会のなかにいて、ロボット自身に「社会で生きていくためにはどうすればいいか」を考えさせるということですよね。ロボット自身が、いいことをしたらプラスになり、悪いことをしたらマイナスになるといったことを理解する必要があります。そういう状況にならないと、私たちとロボットの間に人間同士のような関係を結ぶのは難しいんじゃないかと思います。

(2)に続く