AIは「自分が生きていること」を認識できるか ――
『言語学バーリ・トゥード』で話題、川添愛氏インタビュー(2)

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

 

AIの研究は人間という存在の研究と並走しつづける。近年、AIの研究開発が成熟して、人間の謎の核心部分がそのままAIの研究対象と直結する時代に突入している。そこは議論が紛糾し、謎がさらに深まる領域である。「意識」や「感情」、「本能」という人間を対象としてきた研究の成果はAI研究開発に何をもたらすのか。あるいは、AI研究開発の成果は、人間という存在の理解に何をもたらすのか。最大の難関は共通のものになっているかもしれない。

取材/2021年10月27日 オンラインにて

 

川添 愛(かわぞえ・あい)

作家。1973年生まれ。九州大学文学部卒業、同大大学院にて博士号(文学)取得。2008年津田塾大学女性研究者支援センター特任准教授、2012年から2016年まで国立情報学研究所社会共有知研究センター特任准教授。専門は言語学、自然言語処理。著書に『白と黒のとびら』(東京大学出版会、2013年)、『精霊の箱(上・下)』(東京大学出版会、2016年)、『自動人形の城』(東京大学出版会、2017年)、『働きたくないイタチと言葉がわかるロボット』(朝日出版社、2017年)、『コンピュータ、どうやってつくったんですか? 』(東京書籍、2018年)、『数の女王』(東京書籍、2019年)、『聖者のかけら』(新潮社、2019年)、『ヒトの言葉 機械の言葉』(角川新書、2020年)、『ふだん使いの言語学』(新潮選書、2021年)、『言語学バーリ・トゥード』(東京大学出版会、2021年)がある。

 

 

【目次】

AI開発における「意識」という難問

機械は「自分が生きていること」を認識できるか

フレーム問題解決における「身体」と「感情」の役割

言語獲得能力は先天的能力か後天的学習か

AIは知識を獲得したわけではない。知識の「反映」が学習されているだけ

 

 

 

AI開発における「意識」という難問

 

桐原 AIに意識を持たせるというのが、結局、AIの研究開発が行き着く最大の難問なのでしょうか。

 

川添 そうですね。意識は私の専門ではないのですが、当然のことながら、コンピュータ科学だけではなく、医学や神経科学などが結びつかないと実現できないんだろうなと思います。意識というのはそれ自体ぼんやりしていますが、東京大学の渡辺正峰(まさたか)先生が書かれた『脳の意識 機械の意識』という本によれば、近年では両眼視野闘争という観察可能な現象と意識の有無に相関があると考えられているようで、意識に対する科学的なアプローチも進んでいるようです。ただ、機械に意識が宿るかどうかを証明するのは難しくて、渡辺先生は機械でつくった脳の半球を人間の脳の半球につなげて、その上で意識があるかどうかを確かめるという、非常に大掛かりな実験を提唱しておられます。いずれにしても、何らかの科学的な実験によって機械の意識が確認できないかぎりは、本当の意味でAIが人間と同じように言葉を喋るとは言えないだろうと思います。

 

桐原 意識という難問に行きあたったところで、やっとAIの本当の研究が始まった気がします。今まで、人間に追いついたと言っていたのはずいぶんレベルの低い話ではなかったのかという気がしています。

 

 

脳の意識 機械の意識 脳神経科学の挑戦
渡辺正峰 著
中公新書
ISBN978-4-12-102460-2

 

 

 

 

機械は「自分が生きていること」を認識できるか

 

桐原 ロボット自身が倫理的に振る舞うには、ロボットに利益を与えるあるいは罰を与えて、ロボット自身が自我を持たなければならないという話が出ました。そこは突き詰めると、ロボット自身が生存本能を持つことにもなるのかと思うのですが、生き物でないロボットが本能を持つということは考えうるでしょうか。

 

川添 難しい問題ですね。最近、『動物意識の誕生』という本が出たようなので、私も調べようと思っていたところです。生存本能と意識がどれくらい関係があるのか興味がありますね。自分が生きていることを認識すること、あるいは死ぬかもしれないということを認識することは、恐怖であるとか喜びであるとか、いろんな感情の源になるんじゃないかと思います。機械が私たちと同じように言葉を話すためには、感情を持つということが必要条件になると思うので、生存本能や「生きていることの認識」が機械の言語問題を考えるうえでけっこう肝になるかもしれません。

 

桐原 そのへんは、先生も動物の行動研究に用いられるスキナー箱における報酬と機械学習での強化学習の類似性について書いていらっしゃいますよね。

 

川添 たしかにバラス・スキナーのオペラント条件付けの話は強化学習の話と似ているとは思います。ただし、スキナー箱のネズミは食欲に突き動かされて行動しているのに対して、強化学習の場合は人間が決めた数値に則って機械がパラメーターを調節しているだけなので、動物の本能とは根本的には違います。機械自身が「これは自分のためになる」と思って学習しているわけではありませんから。

 

桐原 そう思うと、AIはどこまで行っても先天的に何らかの目的や意図を持っているわけではなく、人間が教えない限り学習するということはありえないですね。

 

川添 少なくとも今の機械学習の延長上ではそうですね。人間の脳の中身がある程度わかって、同じようなものを機械で再現する、それこそ人造人間みたいなものをつくらないと無理じゃないかなと思います。今のAIなりロボットなりに、単純にいろんなことを学習させたら自然に意識を持つようになるなんてことはありえないでしょう。

 

桐原 世間一般が言うほど、AIが人間に近づいたり超えたりすることがそんなにたやすいことではないということですね。

 

 

動物意識の誕生 上・下
シモーナ・ギンズバーグ 著・エヴァ・ヤブロンカ 著
鈴木大地 訳
勁草書房
ISBN978-4-326-15474-6

 

 

 

フレーム問題解決における「身体」と「感情」の役割

 

桐原 松原仁先生がフレーム問題を解決するにはAIにも身体が必要だということをおっしゃっています。つまり身体という制限を持つことで、人間のように曖昧さを思考できるようになるのではないかと。それと先ほどの自我を持つということがつながる気がするのですがいかがでしょうか。

 

川添 私も身体の存在は必要条件になるとは思います。ただしそれだけでなく、感情みたいなものもないとフレーム問題の解決は難しいと思います。実際に身体を持っている人間にも、たまにフレーム問題的なことが起こっていますし。私たちがそれを解決しているように見えるのは、感情があるからではないかという説があります。

 

桐原 感情がフレーム問題を解決するというのは、たとえばどういう状況ですか。

 

川添 そもそもフレーム問題とは、無視すべきことをどうやって無視するかという問題ですよね。何か仕事をする際に、その仕事に関係のないことを一つ一つ論理的に判断して無視しようとすると、膨大な時間がかかってしまうんですね。たとえば何か物体を動かす仕事の場合、動かす物体の近くに危険物や壊れやすいものがあると無視できませんが、その部屋の壁の色とか窓の有無なんかは無視できます。そういう「無視できる・できない」の判断を論理的にやっていこうとすると、その場にあるすべての要素を考慮にしなければなりません。私たち人間もたまにそのような状況に陥りますが、たいていの場合はすべての要素を考慮したりせず、とりあえず行動しますし、それでおおよそうまくいくんですね。つまり、論理的ではないけど合理的な行動を瞬時にとっているんです。哲学者の柴田正良先生は『ロボットの心』という本の中で、そういった行動を可能にしているのは感情である、つまり感情が「その場で考慮すべきこと」を瞬時に際立たせていると主張されています。実際、脳の一部に損傷を受けて感情を感じることができなくなった人が、論理的な思考力や状況の知覚能力には問題ないのに、意思決定に支障をきたすようになったという報告もあります。些細なことを延々と考え続けて、いつまでも決断できないのだそうです。

 

 

ロボットの心-7つの哲学物語
柴田正良著
講談社現代新書
ISBN978-4-06-149582-1

 

 

言語獲得能力は先天的能力か後天的学習か

 

桐原 第3次AIブームと言われて、それまでのルールベースから機械学習やアルゴリズムに移行してAIは進化してきましたが、その辺は言語学にも通じるところがあると感じています。もともと言語学者のノーム・チョムスキーが唱えていたような普遍文法だとか言語の根本部分を生得的に獲得するという考え方と、学習やアルゴリズムによって後天的に言語を習得するんだという考え方の対立と、AIの進化が対応しているように感じるんですが。

 

川添 おっしゃる通りです。人間には生まれつき脳内に普遍文法が備わっているとするチョムスキーの生得説と、そんなものはなくて、言語は人間の他の能力と同じように学習して身につけるものだという学習説の対立は昔からありました。最近では、ニューラルネットワークを用いた機械学習によってAIが進化したことで、より両者の対立が深まっている感があります。ただし私個人は、完全に対立させていいのかと疑問を感じています。私自身はもともとチョムスキーの生成文法の枠組みを用いて研究していたこともあり、子供の言語習得に関しては普遍文法を仮定した方がキレイに説明できると考えているのですが、私たちが実際に言語を使って行動する際の傾向というか、「こういうときにはこういう言い方をしたほうがいい」などといったことについては、後天的な学習が深く関わっていると思っています。生得説にせよ学習説にせよ、どちらか一方で言語にまつわることのすべてが説明できるとは思っていないのです。

 

桐原 実は私自身は世代的にもニューアカデミズムの影響を受けていて、哲学者のミシェル・フーコーとチョムスキーが70年代に行った議論のことをよく考えていました。人間は生まれつきではなく環境によって決まるというブランクスレート説にシンパシーを感じていたのですが、最近、認知心理学者のスティーブン・ピンカーの批判を読んだりしていくうちに、どう考えればいいのだろうと思っていました。今のお話を聞いてかなり納得する部分がありました。私自身は生まれつきの才能よりも経験が大事だと思う人間で、これが嵩じるとハラスメント的になりえるなあと感じています。根性でなんとかなるというような考え方の大元になっているような(笑)

 

川添 なるほど。それは、うまくいったら報酬を与えて、いかなかったら罰を与えればいい、それで全部うまくいくんだという考えにつながりそうですね(笑)

学習説もたしかに強力ではあるんですが、子供の言語習得の傾向を見ていると、本当に何もないところから学習して言葉を身につけていると考えるのはかなり難しいと思います。その一方で、最近の機械学習の発展ぶりを見ると、最初に何もなくてもけっこういけるんじゃないかと思えることもあります。私個人は、そうしたせめぎ合いのなかで、それぞれがそれぞれの立場で知見を積み重ねていけば、結果的に真実に近づけるんじゃないかという傍観者的な立場で眺めています。

 

桐原 私もそうですが、どうしても対立的にものを考えがちですよね。帰納と演繹みたいに分類してみたり。でも、たしかに対立的に考える必要もないのかもしれませんね。

 

川添 もしかすると、現役の言語学者の方々からは、「そんなぬるい態度じゃダメだ」と言われるかもしれませんけど(笑)。お互いを批判的に検討しながら見ていかないと本当のことって積みあがっていかないので、真実を追求するにはそういう“ぶつかり稽古”みたいな論争も必要だと思います。

 

 

 

AIは知識を獲得したわけではない。知識の「反映」が学習されているだけ

 

桐原 今、web上の8年分と言われる膨大な量のテキストを学習させた自然言語処理モデルの「GPT-3」が、まるで人間が書いたかのような文章を繰りだすことで話題になっています。

 

川添 たしかに大量のデータからの学習によって作られたモデルは、その内部にいろんな情報を含むことができます。たとえば「食べる」という言葉のまわりには食べ物を表す言葉がくることが多いとか、「拙者」みたいな言葉の近くには「ござる」という言葉があるとか。つまり、「食べるという行為は通常、食べ物に対して行われる」という常識とか、「自分のことを『拙者』と称する人は、語尾も『ござる』にしがちだ」といった文のスタイルに関する傾向など、さまざまな情報がモデルのなかに溶け込むんですね。ただし、それは私たち人間の持っている知識そのものではなく、私たちの知識の「反映」が学習されていると言ったほうが正しいでしょう。だから、AIモデルが私たちと同じ知識を持つようになったと言われると、私は違和感を覚えます。

(1)を読む

→(3)を読む(11/18公開予定)