生成AIが加速する戦時下的状況としての現代
─読売新聞とNTTの共同提言についてクロサカタツヤ氏に聞く(1)

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

2024年4月8日、読売新聞とNTTが「生成AIのあり方に関する共同提言」を発表した。日本を代表する巨大メディアとテックジャイアントの組み合わせによる提言は海外でも大きな反響を呼んだ。そこには、生成AI時代における人間の危機と克服すべき課題が踏み込んだ表現で書かれていた。なぜこのタイミングでこの両者が提言を出したのか。その背景と意味について、仲介役となり提言を取りまとめる事務局を務めた慶應義塾大学のクロサカタツヤ氏に話を訊いた。

取材:2024年4月30日 オンラインにて

 

 

クロサカ タツヤ

株式会社 企(くわだて)代表取締役、慶應義塾大学大学院政策・メディア研究科特任准教授。1975年生まれ。慶應義塾大学・大学院(政策・メディア研究科)修士課程修了。三菱総合研究所を経て、2008年に株式会社企を設立。通信・放送セクターの経営戦略や事業開発などのコンサルティングを行うほか、総務省、経済産業省、OECD(経済協力開発機構)などの政府委員を務め、政策立案を支援。2016年からは慶應義塾大学大学院特任准教授を兼務。著書に『5Gでビジネスはどう変わるのか』(日経BP)。その他連載・講演等多数。

 

 

 

目次

「生成AIのあり方に関する共同提言」とは

なぜ読売新聞とNTTは生成AIについての議論を始めたのか

自信たっぷりに嘘をつく生成AIをいかに御していくか

インベンションにおける変化のスピードを誰も想定できていなかった

 

 

 

 

「生成AIのあり方に関する共同提言」とは

 

読売新聞グループ本社とNTTは、生成AIのガバナンスのあるべき姿についての共同検討を2023年の秋に開始し、現時点での提言として「生成AIのあり方に関する共同提言」を発表した。共同提言の概要は以下の通りである。

【生成AIに関する基本的な現状認識】

生成AIは人間にとって使いやすいインターフェースやエクスペリエンスを備えており、その活用により労働生産性の向上が期待される。一方で、現状は結果に対する正確さを担保しきれず、その無制限な利用は人間・社会にとって様々な課題をもたらす側面もある。人間は生成AIの規律と活用を両立する方策を、技術・制度双方の観点から実現する必要がある。

【主要論点】

論点1:「AI×AE(アテンション・エコノミー)の暴走」への対峙

論点2:自由と尊厳を守るための言論空間の確保に向けた法規制と対処する技術の導入

論点3:法整備を含めた実効的な統治(ガバナンス)の確立

【今後の見通し】

▽生成AIは今後イノベーション(社会的普及に伴う変革)の段階に入る。

▽健全な言論空間の確保に向けた対策は直ちに講じる必要がある。特に選挙、安全保障に係る領域については強い制限が必要である。

▽著作権法の、時代に合わせた適正化の検討を、生成AI自体の活用と両立する形で、制度と技術の両面で進めることが必要である。

▽①メディアや産業界が中心となった規律と共同規制の導入、②実効性のある技術の確立と普及、③法改正への取組、といった段階を踏むことが必要となる。

▽その際、個人の自律的な自由と尊厳を守ることを最重要の価値として特定し、コミュニティの価値といった視点からの批判的検証も踏まえつつ、検討を進める。

▽読売新聞とNTTは引き続き検討と提言を行っていく。

(読売新聞ニュースリリース2024年4月8日より)

【生成AIのあり方に関する共同提言】

 

 

なぜ読売新聞とNTTは生成AIについての議論を始めたのか

 

桐原永叔(以下、桐原) まずはじめに、なぜこの組み合わせなのかと思った方も多いと思います。慶應大学も含めて三者ですけれど、なんでこの三者なのかについてお聞かせください。

 

クロサカタツヤ(以下、クロサカ) 読売新聞社はもともと生成AIに対して課題意識を有していました。ただ、メディア企業として著作権侵害の問題提起が先行したこともあり、ビジネス目線なのではないかと捉えられがちです。もちろんそれを否定するものではないですが、本検討の課題意識はそのレベルではないんですね。この提言をあまり深読みせず、そのまま字義通りに読んでいただきたいのですが、生成AIは本当に自由と民主主義に対する挑戦だと考えている。これを座視しているとわれわれの社会は崩壊してしまうというぐらいの強い危機意識を持っています。

 

桐原 社会思想の変化までをふくんだ経緯があったということですね。

 

クロサカ 日本が近代以降確立してきた価値観の基礎となっているのは西洋哲学ですよね。これはカント由来の哲学であると言ってもいい。自律的な自我を確立することが重要であって、他律ではないのだということです。その状態にこそ最高の人間の尊厳がある。これをわが国は法律や法体系に生かしているわけです。つまり、明治以降つくられている法律──もちろん途中で戦争に負けて大きくリライトされていますけれど──の根底にある基本的な価値観、人間をどういう風に考えるのかという思想は変わっておらず、ある意味で借り物なわけですけれども、カント由来の価値観をわれわれ日本人は規範としているはずであると。このカントの言うところの尊厳ある状態を達成する前提や環境を、生成AIが崩壊させかねないという問題意識です。

 

桐原 人々の投票行動に直接的に介入しうる危惧が言われたりします。そういった政治的な実行力を持ちうるという問題意識でしょうか。

 
クロサカ その通りです。そんなの心配しすぎだという声もあるかもしれませんが、すでにその前哨戦は進展しています。たとえば「メイド・フォー・アドバタイジング(Made for Advertising)があります。金を稼ぐために生成AIにデタラメなコンテンツをじゃんじゃん吐き出させて、バッとつくってページビューを稼いでバッといなくなる。こういうものが普通に跋扈している状況であり、一方で人間の側はそれをすべての人が正しく識別して「いやこれは嘘だよね」と笑ってスルーできる状態ではありません。これはまさしく新聞社、とりわけ読売新聞社という日本でいちばん発行部数が多くページビューを多く稼いでいる新聞社であるが故に、そのブランドを使ったフィッシング詐欺が日々発声しているということからもわかります。

 

桐原 読売新聞にかぎらず大手メディア、大手企業、著名人を騙った偽サイトやなりすまし広告は珍しいことではなくなってしまいましたね。

 

クロサカ ものすごい勢いで増えています。読売新聞に限らず、社会的に信用されているブランドを毀損し、そのブランドを騙ることによって金を稼いでいる連中がいて、読者・消費者も被害に遭っている。ネット空間のトラストがもともと脆弱なところに、生成AIという強烈な武器が出てきてしまったことによって、われわれの自由や民主主義があっという間に破棄されてしまうんじゃないのかと。これを、生成AIの技術そのものの向上による規制をただちに期待することは残念ながらできない状況です。いずれこういう課題意識を共有し生成AIは適正化されていくかもしれませんが、そう言っているあいだに社会が壊れたら元も子もない。そういう強い問題意識を持っていました。

 

桐原 NTTが提言のパートナーになっているのはどういった経緯だったんですか。

 

クロサカ いま申し上げたような目線で議論ができる企業を探しはじめて、誰がいちばん適任なんだろうというと、日本のデータエコシステムの潜在的な守護者であって、情報通信に対して責任を負っている企業ということで、自然とNTTの名前が挙がりました。NTT自身も生成AIを開発していて、ちょうど世の中に出すタイミングが近づいていて、倫理面でどのように対処すべきかを当然考えなければいけなかった。実際、NTTは読売新聞との取り組みの前に京都大学・出口康夫教授と一緒に京都哲学研究所をつくって検討に入っていました。もともと、生成AIやデータエコシステムと人間のあり方について強い関心を持っていた状態です。

桐原 それぞれが議論する相手、問題意識を共有できる相手を探していたわけですね。

 

クロサカ 両者がある意味ちょうどいいタイミングで出会うことができて、共鳴したというのがこの検討の始まりです。で、言ってしまえば、慶應はその仲人役でした。

 

 

自信たっぷりに嘘をつく生成AIをいかに御していくか

 

桐原 これはGPT-3.5が公表されて以降のお話として始まったのでしょうか。それ以前からあった話ですか。

 

クロサカ それぞれの問題意識はそれ以前からあったと思いますが、コラボレーションが具体化したのはGPT-4が出てきた2023年夏ぐらいですね。

 

桐原 最初に提言を読んだときに、私もずっと考えつづけていたテーマだったので驚きました。生成AIでつくられたものを客観的に読みとるだけの教養がある人が限られているうえに、生成AIがいま以上に普及するともしかすると教養そのものの質が変わってきて、生成AIにコントロールされていることにも気づかないようなことが増える危険性もありますよね。

 

クロサカ おっしゃる通りです。私も含めて、あらゆることを知っている、森羅万象を知っている人間なんかいませんよね。重要なのは、もっともらしく言われるということが、実はトラストの源のひとつだということ。つまり読売新聞というレイアウトデザインを持った紙を見ると、これは読売だから信頼できるとみんな思うわけです。誰も裏をとってないわけですよね。これと同じ状態があらゆるところで発生している。生成AIは極めて滑らかな嘘を生成できるので、うっかりすると引っかかっちゃうわけです。提言には、「自信たっぷりに嘘をつく*1」と書いてあります。この検討会はさまざまな有識者をお呼びしているのですが、この発言をしたのは昔からAIの研究をなさっていた工学系の先生です。私の解釈ですが、AIの研究者こそ生成AIにかなり強い危機感を持っていて、こんな不完全なものを世の中に出されてしまった日にはAIそのものが潰されてしまうと感じているように思います。一方で、いろいろな人に話を聞けば聞くほど、これは人間の側の問題であると。人間がつくった社会の側が不完全な技術である生成AIを受け止める状態にはないのではないか。人間の側、社会の側でできることをしなければいけない。つまり、生成AIは技術としてまだ未熟でコントロール不可能なものなので、それはそれとして置いといて受け止める側の人間と社会でどうやってこれを御していくかが重要で、それで提言には法律をつくれというようなことまで盛り込んでいます。

 

桐原 提言に書かれている戦争の可能性までありうるという話*2を大げさだと考える人たちがいると思うんですけど、ナチスの反省からデマゴーグみたいな人が出てくることを政治の状況ではものすごい恐れるわけです。それが生成AIはデマゴーグをすぐにつくれてしまう。科学的、歴史的真実めかしたデマを生成できる。だいたい「自信たっぷりに嘘をつく」ことこそデマゴーグの最たる能力ですし。現在はさらに生成されたデマをプロパガンダするテクノロジーもすぐ手に入る。一気に社会が偏った方向に流れてしまう可能性はナチスの例をだすまでもなく想像するのは難しいことではありません。

 

クロサカ もっと言うと、われわれの時代における戦争がもはやかたちを変えていることにわれわれ自身が気付いてない。どうしてもミサイルが、軍縮がみたいなことを言うわけですけど、そうではなくて、いまの戦争はソーシャルメディアとお金の世界で起きている。われわれはすでに戦時下にいる状態で、生成AIがこれを加速させないわけはない。たとえば、能登半島で1月1日に地震が起きましたけれども、あの時X(旧Twitter)でインプレッション稼ぎをした人たちがいっぱいいて、少なくない割合で海外から来ています。Xでインプを稼ぐのってすごい手間がかかることで、労多くして利益すくなしなんです。何十万とか何百万の単位で読まれたり、リツイートされたりして初めて数万円稼げるかどうか、という世界です。つまりさすがにこの円安であったとしても、日本人はそこまではやらないでしょう。ところが、1万円稼げたら1週間や1カ月生活できるという人たちが世界にはいて、この人たちが滑らかな日本語を生成AIによって語れるようになっているわけです。「隣の家が潰れています。悲鳴が聞こえます。助けてください」って100万リツイートによってレスキュー隊であるとか現場の警察官を誘導してしまう。しかし指示されたところには誰もいない、家さえ建っていない。その人たちはお金が欲しいというだけで──悪意のレベルは低いのかもしれませんが──、そんなツイートを生成する。偽ツイートにまどわされているあいだに助けられた命があることを考えると、これは偽計業務妨害そのものです。そうやって警察やレスキュー隊や自衛隊のリソースが散り散りになる状態って、血が流れない戦闘行為ですよね。そういう状態にすでにわれわれはいるということが、もう少し解像度高く理解される必要があるだろうなと思います。

 

桐原 難しいですね。あまり状況を生々しく書くとそれはそれで逆効果になりそうな懸念がありますね。

 

クロサカ その通りで、心配しすぎですよという話になってしまうので、どういうもの言いをするのがいいのかバランスが非常に難しく、頭を悩ませました。

 

*1:「結果に対する正確さを担保しきれない一方、人間が「安易」に利用・理解できるため、生成AI が「自信たっぷりにウソをつく」状態、また人間が「あっさりと騙される」状態に陥りやすい。」(「生成AIのあり方に関する共同提言」より)

*2:「生成AIをこのまま野放しにすると、人間同士の不信をあおり、真正性・信頼性を担保するインセンティブがなくなり、社会全体の信頼が毀損される可能性がある。最悪の場合、民主主義や社会秩序が崩壊し、戦争等が生じることも懸念される。」(「生成AIのあり方に関する共同提言」より)

 

 

インベンションにおける変化のスピードを誰も想定できていなかった

 

桐原 この提言の内容自体は時間をかけて練られたんですね。

 

クロサカ 昨年末時点で検討は一度収束しつつあったのですが、どうやってこれを表現するか、揉みに揉みまくった。何かの政治日程を狙ったものではなくて、たまたま時間をかけたらこのタイミングでの発表になったということなんです。

 

桐原 提言を読みながら頭に浮かんだのが、ジェフリー・ヒントンが、2023年の5月にgoogleをやめたことです。その前まではすごく楽観的な言動が目立っていた第一人者が、急にもうこれ以上はまずいかもしれないと言いだした。画像生成でフェイクニュースが流れるみたいなことを例として挙げていましたが、もしかするとあの辺の研究者たちも同じようなレベルでの危機感を早い段階で持っていたのかなというのを提言を読んで思ったんですよね。

 

クロサカ その可能性もあります。こういう懸念は、ディープ・ニューラルネットワークを多少なりとも研究したり触ったりしている人たちであれば理解できることです。ただ、おそらくいまでも脅威に感じているのは、変化のスピードが早いということで、これは想定できていなかった。ここまで金が流れ込んできて、GPU乱獲競争になって、データセンターに電気が注ぎ込まれるようになるとは、誰も思わなかった。やっぱり予測不可能な状態にその時に入っていたんだということを認識したんだと思います。

 

桐原 提言では、「生成AIは人間が制御しきれない技術でありながら、今後はイノベーション(社会的普及に伴う変革)の段階に入る。」とあります。

 

クロサカ インベンション(発明)の競争は少しずつ収束に向かっていて、この後はイノベーションの競争になっていくんだと思います。インベンションの時に何が起こるかわからないという危機感はこの後は減っていくとは思います。一方、イノベーションとは普及のことなので、それを使って何かをしてやろう、ビジネスをつくったり、世の中を良くしてやろうと思う人たちが当然いるわけです。しかし逆に世の中を悪くしてやろうって人も出てくる。それがテクノロジーなんです、テクノロジーは常に中立ですから。そういう意味で言うと、ここからはむしろ人間の悪意が暴走する時代に入っていくんだろうなと危惧しています。

 

桐原 人の側の問題ですね。こうやってお話を聞くと、危機感をそれなりに持っていたつもりですが、リアリティと肌触りがそうとう変わってきた気がします。変化のスピードが早いことに対して、対応策が後手に回っているという感じなんでしょうか。

 

クロサカ 制限されては本当の発明(インベンション)は生まれないはずなので、技術的な進化が早いのは仕方がない部分があります。問題はイノベーションに移行していく際にどういう風に手懐けるかということです。つまり金とリソースが大量に短期間に注ぎ込まれた結果、インベンションの角度がきわめて強く高くつきすぎているんです。この投資を回収するのに、膨大なノルマが溜まっているので、とりあえず押し売りでもなんでもいいから売りに行けっていう話になるはずなんです。

(2)に続く