AIにより変容するヒューマニティ
慶應義塾大学理工学部教授 栗原 聡氏に聞く(2)

FEATUREおすすめ
聞き手 都築 正明
IT批評編集部

「AIが仕事を奪う」「AIに置き換わる職種◯◯選」──ビジネス誌面を賑わせるクリシェである。栗原氏は、こうした脅威論をたんなるレトリックとして退ける。一方、AIにより人間性が変化することへの想像力は充分に働かせなければならない。それがテクノロジーを手にした私たちの「ヒューマニティ 1.0」が「ヒューマニティ 2.0」へ、さらに「ヒューマニティ 3.0」へと変容するという発想である。

2023年9月21日 慶應義塾大学理工学部会議室にて

 

 

栗原 聡(くりはら さとし)

慶應義塾大学 理工学部 教授/慶應義塾大学共生知能創発社会研究センター センター長。慶應義塾大学大学院理工学研究科修了。博士(工学)。NTT基礎研究所、大阪大学、電気通信大学を経て、2018年より現職。科学技術振興機構(JST)さきがけ「社会変革基盤」領域統括。人工知能学会副会長・倫理委員会委員長。大阪大学産業科学研究所招聘教授、情報法制研究所上席研究員、総務省・情報通信法学研究会構成員など。TEZUKA2023総合プロデューサー。マルチエージェント、複雑ネットワーク科学、計算社会科学などの研究に従事。著書『AI兵器と未来社会キラーロボットの正体』(朝日新書)、編集『人工知能学事典』(共立出版、2017)など多数。

 

 

目次

AIは「かわいいは正義」ではない局面に

「情報の身体性」とは

AI技術のもたらすヒューマニティのゆくえ

 

 

 

 

AIは「かわいいは正義」ではない局面に

 

――EUはAIを徹底的にツールとして扱おうとしていますし、アメリカも比較的そちらの論調に向かっています。先日はテッド・チャンがインタビューで「AIを擬人化しすぎるな」と言っていました。「AIが発展したらブルシット・ジョブをさせればよい」と。

 

栗原 さきほどお話ししたEUのAI規制は、まさにそういう発想です。

 

――日本ではAIについて、そこまでドライではない気がします。AIを子どもにたとえると、16世紀にイギリス駐日総領事が「子どもの楽園」と称したように、日本では子どものふるまいを「かわいい」ものとして許容する傾向があります。子どもを不完全な大人として鋳直しようとするヨーロッパにくらべて許容度が高いようにも思えます。

 

栗原 私もよくドラえもんやアトムを例に挙げつつ、日本にはAIを受け入れる素地があると言っています。ドラえもんは冷静に考えれば高性能なAIを搭載したロボットです。そしてドラえもんに愛着をおぼえるといった瞬間に、ドラえもんは私たちと同じように自分で考えて動くものだということを、暗に仮定しています。でも、そのようなAIはまだ現実には存在していません。

 

――SONYのAIBOなども同様に考えられるでしょうか。

 

栗原 AIBOも不完全で犬のような見かけをしているので、人がそこに生き物のようなイメージを仮託しているだけです。中身は単なるプログラムの塊で、複雑とはいえルーティンで動くだけですから。「たまごっち」も同じく人が感情移入をしているだけです。実はこれがとても危険でもあるのです。もちろん玩具に感情移入することが悪いとは思いません。しかし、社会を動かしたり、人の生死などのシリアスな局面にかかわったりしたときに、AIにそのように接して、それがよからぬ事態を招いたときには大変なことになります。

 

――そこに擬人化のトラップが生じてしまうわけですね。

 

栗原 そうしたミスリードが「AIに仕事を奪われる」のような脅威論を生んだりします。レトリックとして電卓に仕事を奪われた、ということはできます。しかし事実としては人間が電卓が便利だということに気づき、電卓を導入したことによって、人員を削減したということです。あくまでも道具は人が使うものですから。少なくとも今の状況において、テクノロジーが人をどうこうすることはできません。人間がAIを使って人から仕事を奪うことはしていますが、AIが人から仕事を奪うことなどできるわけがありません。AIが人から仕事を奪うことができるとしたら、そのAIは自ら考えて動いてなければなりません。

 

――しかも、人が解雇する権限をあたえなければなりません。

 

栗原 そうです。そんな権限を持ったAIはまだ存在していません。それなのにAIが人から仕事を奪ったりAIが人を支配したりという誤解が生じてしまうわけです。法制度にかかわる人たちもテクノロジーの専門家ではありませんから、AIを危険なものだと誤解して研究がストップさせられたりしたら、おしまいです。間違った解釈を正しいものとして解釈して物事が動いたら、ろくでもないことになりますよね。

 

――EUでは一旦、AIに人格権を認めようという議論がありました。それは否定されて、今後その議論をしないことになりましたが、似たような想像力が働くことがありえるわけですね。

 

栗原 そうです。そういう議論も実際によく聞きますが、非常に危ない発想です。

 

――19世紀末のラッダイト運動と似たような話になってしまう。むしろツールっぽさがなくなっていくと、ラッダイトよりも危険なのかもしれません。

 

栗原 ものを書いたり分析したり記憶したりという、手足を動かすよりも人間的なものとされていた能力について、AIは人間のレベルを超えつつあるのですから、なおさら「追い抜かれた」という感覚を抱きやすいですね。

 

――AIのデータ処理能力や記憶量には、人間が追いつきようがありません。そこについては、能力的には違うというところから考えなければなりませんね。

 

栗原 一方、シンギュラリティとして議論されている高い自律性と汎用性を持つAIの事例はゼロですから、存在しないものについての議論なわけです。

 

――仕事の合理化や宿題でズルをするぐらいならまだしも、先生が『AI兵器と未来社会 キラーロボットの正体』(朝日新書)で書かれていたように兵器に利用されると、もうどうしようもなくなりますよね。

 

栗原 LAWS(Lethal Autonomous Weapons Systems:自律型致死兵器システム)は人道的見地から研究も開発もするべきではないとされていますが、そこに意味がなかったことは、今回のロシア―ウクライナ戦争でも露呈してしまいました。今やドローンを使いまくっているじゃないですか。ドローンは安価ですから、兵隊が死ななくてすむのであれば、もう使ったもの勝ちだと。人権や人間の尊厳といっても、戦争という状況になれば関係なくなってしまう。

 

――感情移入のできなさが非人道的な目的には奏功してしまうこともあります。アメリカ陸軍将校でもあったデーヴ・グロスマンという心理学者の書いた『戦争における「人殺し」の心理学』(ちくま学芸文庫)という本があります。ギリシアーローマ時代から第2次世界戦争まで、人間が人間を撃つのは、どんな時代でも15%〜20%ぐらいだったそうです。結局どんな戦争でも80%以上の兵士は空砲を撃っていたと。ベトナム戦争ではオペラント条件づけを用いてその確率を上げたのですが、その結果として大量の兵士がPTSDを抱えることになりました――カウンセラー不足を補おうとELIZA*1が開発されたりもして。ドローンを使えば、この確率がかなり上がりそうです。

 

栗原 ただ、文脈を読んだり共感したり、相手の立場に立って考えたりという能力は人間側でも低下していますよね。SNSの弊害だと思いますけれど。私たちが物理的な身体を持って動いている以上、私たちは社会的な生き物として生きていかなければなりません。自分ひとりで生きていけるほどタフではありませんから。そうすると、ある程度の共感力などの社会性がないと、本当は生きていけないはずです。ですから、うまく生きていけない人が増えてきているわけですよね。そうした人にも選挙権があって選挙をするわけで、その結果、民主主義はすでに相当壊れている。これはかなり危険な事態です。人間社会といっても、かつてとは質が変わってきているのです。社会システムを再考しなければならない局面にきていると思います。

 

――そこはテクノロジーのアンビバレントな面ですね。つながりを欠いた人たちがSNSで交流できる一方、フィルターバブルやエコーチェンバーで認知が歪む可能性もあります。

 

栗原 炎上した件のもとの投稿主を調べてみたら、発信元は2〜3人だったということもあります。

 

――それが、いわゆる情報弱者だけの問題でもなくなっています。ロバート・ケネディ・ジュニアなどはQアノンのような陰謀論を唱えていて、そこに“TEC PRO”といわれるピーター・ティールやイーロン・マスク、マーク・ザッカーバーグやマーク・アンドリーセンなどが同調したりもしています。

 

栗原 やはり人類が動物化しつつあるのでしょうね。ものを考えることをしなくなって、条件反射的な行動しかできなくなりつつあるようにすら思えます。

*1 ELIZA:MITのジョセフ・ワイゼンバウムが1964年から1966年にかけて作成した自然言語処理プログラム。人間の言葉を解析することで文意を読み取り、キーワードとなる単語を抽出して、定型文に組み込むことで、応答する仕組みになっていた。

 

 

「情報の身体性」とは

 

――日本のAI研究者のなかには、AIを搭載できるロボットを作ることで身体性を獲得させようという方も多くいます。そうすることで「ものづくり大国」としての日本の威信もとりもどせるのではないかと。

 

栗原 生成AIもそれなりの身体性は理解できていると考えています。身体性に関する情報も相当量学習されているはずですが、言語化されないノンバーバルな身体性については生成AIは学習することはできません。

 

――人が書いたものだから、どこかで記号接地はなされているということですよね。先生は「情報の身体性」ということをおっしゃっていますが、それとはまた別の考えかたですよね

 

栗原 それはアフォーダンス*1の話になります。すべてのモノは我々に行動をアフォードし、我々はそれを知覚するだけという見方です。古くなっているものは飲まないですとか、変色しているものは食べないですとか。モノには身体性があり、それが我々がモノに対して起こす動作と密接な関係があるのです。私たち人間は社会生活を営むために声帯をうまく使って言葉をしゃべる能力を獲得し、言語によって物理的な事象を情報として伝達できるようになりました。その代わりに身体性が置き去りになってしまったのです。

 

――シンボルを介してやりとりするようになったということですね。

 

栗原 インターネット以前の情報通信技術すらなかった頃は、だれがいつ、どのような状況で言ったのかという情報の出所も合わせて伝わったでしょう。誤解や流言はあったにせよ、情報の信頼性をさぐることは容易だったはずです。しかし、現在のネット上の情報は、切り取られたり合成されたり自由自在で本来の器がなくなってしまいます。器というのは、いつその情報が発信されて、どのように切り取られているかという履歴です。常にそれが必要だとは思いませんが、情報の鮮度や信頼性や価値はそこで担保されるものだと思います。それがあれば、間違った情報が拡散されたり、違う文脈で受け取られたりすることはかなり避けられるだろうと思います。

 

――身体というのは必ずしも物理的なものでなく、意識や主体と環境との間にあるものですよね。メルロ・ポンティが間身体性という概念でいうように、自己と他者との潜在的な相互関係性がないまま、情報がそのまま環境にさらされると、機能不全を起こしてしまう。

 

栗原 その意味では、クロサカタツヤさんが取り組まれているオリジネーター・プロファイル*2のように、情報にスタンプをつけることは最初の取り組みとしてとても重要になってきます。

*1 アフォーダンス(affordance):「与える・提供する」という意味を持つ「afford」を元にした造語であり、「人や動物と物や環境との間に存在する関係性」を示す認知心理学における概念。アメリカの心理学者、ジェームス・J・ギブソンによって提唱された。

*2 オリジネーター・プロファイル:情報コンテンツの作成者や配信サイト運営者、あるいは広告主といった、発信者の実在性と信頼性を確認できる情報を付与する仕組み。第三者による確認を受けた上で署名付きで付与し、ブラウザでの自動検証や認証アイコン付きで表示する。

 

 

 

 

 

AI技術のもたらすヒューマニティのゆくえ

 

――先生の提唱されている「ヒューマニティ2.0」というのはどのような考えかたなのでしょう。

 

栗原 私たちは進化する過程でテクノロジーを生み出して、それを使いながら生きています。私たち人間のほかには、テクノロジーを携えて自ら考え行動する存在は、まだいません。テクノロジーというのは私たちの使う道具のことを指しています。この状態を「Humanity 1.0」として考えます。私たちが質的にアップデートするとしたら、1つは自律型AIと共生する段階になった時だろうと思います。

 

――AIがたんなる道具ではなくなるときですね。

 

栗原 自律型なので、AIも能動的に考えて行動する能力を持つわけです。そういうAIといっしょに暮らしていく中で、 私たちのものの見方や考え方は、きっと変わるでしょう。これまで人間の持っているのと同じ自律性をAIも持つわけですから。新たな創造力や洞察能力、コミュニケーション能力が生まれたりすると思うわけで、それを「ヒューマニティ2.0」と想定しています。その先の「ヒューマニティ3.0」はユヴァル・ノア・ハラリのいう『ホモ・デウス』(河出書房新社)に近いのですが、ハードウェアとしての人間がアップデートする段階です。脳とサイバー空間とを直結するようなことが考えられます。

 

――ニューラリンクの脳にチップを埋め込む臨床試験についてはFDA(Food and Drug Administration:アメリカ食品医薬品局)が認可して治験対象者を募集しているので、その部分では急速に実現するかもしれないですね。

 

栗原 四肢麻痺やALS(Amyotrophic Lateral Sclerosis:筋萎縮性側索硬化症)の患者さんのような健常者でない人々を健常者に押し上げるためには有用な技術となりますが、ハラリが主張するように、富裕層が自らの身体をアップデートさせるために利用すればまさに彼らは新たな種であるホモ・デウスに進化し、ほんの一握りのホモ・デウスが人類全体を支配するような世界にならないとも限らないのです。まさに負の側面が心配です。

(3)に続く