AIにより変容するヒューマニティ
慶應義塾大学理工学部教授 栗原 聡氏に聞く(2)

「AIが仕事を奪う」「AIに置き換わる職種◯◯選」──ビジネス誌面を賑わせるクリシェである。栗原氏は、こうした脅威論をたんなるレトリックとして退ける。一方、AIにより人間性が変化することへの想像力は充分に働かせなければならない。それがテクノロジーを手にした私たちの「ヒューマニティ 1.0」が「ヒューマニティ 2.0」へ、さらに「ヒューマニティ 3.0」へと変容するという発想である。

栗原 聡(くりはら さとし)
慶應義塾大学 理工学部 教授/慶應義塾大学共生知能創発社会研究センター センター長。慶應義塾大学大学院理工学研究科修了。博士(工学)。NTT基礎研究所、大阪大学、電気通信大学を経て、2018年より現職。科学技術振興機構(JST)さきがけ「社会変革基盤」領域統括。人工知能学会副会長・倫理委員会委員長。大阪大学産業科学研究所招聘教授、情報法制研究所上席研究員、総務省・情報通信法学研究会構成員など。TEZUKA2023総合プロデューサー。マルチエージェント、複雑ネットワーク科学、計算社会科学などの研究に従事。著書『AI兵器と未来社会キラーロボットの正体』(朝日新書)、編集『人工知能学事典』(共立出版、2017)など多数。
目次
AIは「かわいいは正義」ではない局面に
EUはAIを徹底的にツールとして扱おうとしていますし、アメリカも比較的そちらの論調に向かっています。先日はテッド・チャンがインタビューで「AIを擬人化しすぎるな」と言っていました。「AIが発展したらブルシット・ジョブをさせればよい」と。
栗原 さきほどお話ししたEUのAI規制は、まさにそういう発想です。
日本ではAIについて、そこまでドライではない気がします。AIを子どもにたとえると、16世紀にイギリス駐日総領事が「子どもの楽園」と称したように、日本では子どものふるまいを「かわいい」ものとして許容する傾向があります。子どもを不完全な大人として鋳直しようとするヨーロッパにくらべて許容度が高いようにも思えます。
栗原 私もよくドラえもんやアトムを例に挙げつつ、日本にはAIを受け入れる素地があると言っています。ドラえもんは冷静に考えれば高性能なAIを搭載したロボットです。そしてドラえもんに愛着をおぼえるといった瞬間に、ドラえもんは私たちと同じように自分で考えて動くものだということを、暗に仮定しています。でも、そのようなAIはまだ現実には存在していません。
SONYのAIBOなども同様に考えられるでしょうか。
栗原 AIBOも不完全で犬のような見かけをしているので、人がそこに生き物のようなイメージを仮託しているだけです。中身は単なるプログラムの塊で、複雑とはいえルーティンで動くだけですから。「たまごっち」も同じく人が感情移入をしているだけです。実はこれがとても危険でもあるのです。もちろん玩具に感情移入することが悪いとは思いません。しかし、社会を動かしたり、人の生死などのシリアスな局面にかかわったりしたときに、AIにそのように接して、それがよからぬ事態を招いたときには大変なことになります。
そこに擬人化のトラップが生じてしまうわけですね。
栗原 そうしたミスリードが「AIに仕事を奪われる」のような脅威論を生んだりします。レトリックとして電卓に仕事を奪われた、ということはできます。しかし事実としては人間が電卓が便利だということに気づき、電卓を導入したことによって、人員を削減したということです。あくまでも道具は人が使うものですから。少なくとも今の状況において、テクノロジーが人をどうこうすることはできません。人間がAIを使って人から仕事を奪うことはしていますが、AIが人から仕事を奪うことなどできるわけがありません。AIが人から仕事を奪うことができるとしたら、そのAIは自ら考えて動いてなければなりません。
しかも、人が解雇する権限をあたえなければなりません。
栗原 そうです。そんな権限を持ったAIはまだ存在していません。それなのにAIが人から仕事を奪ったりAIが人を支配したりという誤解が生じてしまうわけです。法制度にかかわる人たちもテクノロジーの専門家ではありませんから、AIを危険なものだと誤解して研究がストップさせられたりしたら、おしまいです。間違った解釈を正しいものとして解釈して物事が動いたら、ろくでもないことになりますよね。
EUでは一旦、AIに人格権を認めようという議論がありました。それは否定されて、今後その議論をしないことになりましたが、似たような想像力が働くことがありえるわけですね。
栗原 そうです。そういう議論も実際によく聞きますが、非常に危ない発想です。
19世紀末のラッダイト運動と似たような話になってしまう。むしろツールっぽさがなくなっていくと、ラッダイトよりも危険なのかもしれません。
栗原 ものを書いたり分析したり記憶したりという、手足を動かすよりも人間的なものとされていた能力について、AIは人間のレベルを超えつつあるのですから、なおさら「追い抜かれた」という感覚を抱きやすいですね。
AIのデータ処理能力や記憶量には、人間が追いつきようがありません。そこについては、能力的には違うというところから考えなければなりませんね。
栗原 一方、シンギュラリティとして議論されている高い自律性と汎用性を持つAIの事例はゼロですから、存在しないものについての議論なわけです。
仕事の合理化や宿題でズルをするぐらいならまだしも、先生が『AI兵器と未来社会 キラーロボットの正体』(朝日新書)で書かれていたように兵器に利用されると、もうどうしようもなくなりますよね。
栗原 LAWS(Lethal Autonomous Weapons Systems:自律型致死兵器システム)は人道的見地から研究も開発もするべきではないとされていますが、そこに意味がなかったことは、今回のロシア―ウクライナ戦争でも露呈してしまいました。今やドローンを使いまくっているじゃないですか。ドローンは安価ですから、兵隊が死ななくてすむのであれば、もう使ったもの勝ちだと。人権や人間の尊厳といっても、戦争という状況になれば関係なくなってしまう。
感情移入のできなさが非人道的な目的には奏功してしまうこともあります。アメリカ陸軍将校でもあったデーヴ・グロスマンという心理学者の書いた『戦争における「人殺し」の心理学』(ちくま学芸文庫)という本があります。ギリシアーローマ時代から第2次世界戦争まで、人間が人間を撃つのは、どんな時代でも15%〜20%ぐらいだったそうです。結局どんな戦争でも80%以上の兵士は空砲を撃っていたと。ベトナム戦争ではオペラント条件づけを用いてその確率を上げたのですが、その結果として大量の兵士がPTSDを抱えることになりました――カウンセラー不足を補おうとELIZA1が開発されたりもして。ドローンを使えば、この確率がかなり上がりそうです。
栗原 ただ、文脈を読んだり共感したり、相手の立場に立って考えたりという能力は人間側でも低下していますよね。SNSの弊害だと思いますけれど。私たちが物理的な身体を持って動いている以上、私たちは社会的な生き物として生きていかなければなりません。自分ひとりで生きていけるほどタフではありませんから。そうすると、ある程度の共感力などの社会性がないと、本当は生きていけないはずです。ですから、うまく生きていけない人が増えてきているわけですよね。そうした人にも選挙権があって選挙をするわけで、その結果、民主主義はすでに相当壊れている。これはかなり危険な事態です。人間社会といっても、かつてとは質が変わってきているのです。社会システムを再考しなければならない局面にきていると思います。
そこはテクノロジーのアンビバレントな面ですね。つながりを欠いた人たちがSNSで交流できる一方、フィルターバブルやエコーチェンバーで認知が歪む可能性もあります。
栗原 炎上した件のもとの投稿主を調べてみたら、発信元は2〜3人だったということもあります。
それが、いわゆる情報弱者だけの問題でもなくなっています。ロバート・ケネディ・ジュニアなどはQアノンのような陰謀論を唱えていて、そこに“TEC PRO”といわれるピーター・ティールやイーロン・マスク、マーク・ザッカーバーグやマーク・アンドリーセンなどが同調したりもしています。
栗原 やはり人類が動物化しつつあるのでしょうね。ものを考えることをしなくなって、条件反射的な行動しかできなくなりつつあるようにすら思えます。