議論できるトップマネジメントがいない会社には参加資格がない
─読売新聞とNTTの共同提言についてクロサカタツヤ氏に聞く(2)

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

後半では、提言の内容が前例のないほど直裁な表現で書かれたことの意味や、それを日本を代表する企業が発信したことのインパクトについて訊いた。これまでのテクノロジーに関する議論で欠落していた視点がなんだったのかを浮き彫りにする。

取材:2024年4月30日 オンラインにて

 

 

 

クロサカ タツヤ

株式会社 企(くわだて)代表取締役、慶應義塾大学大学院政策・メディア研究科特任准教授。1975年生まれ。慶應義塾大学・大学院(政策・メディア研究科)修士課程修了。三菱総合研究所を経て、2008年に株式会社企を設立。通信・放送セクターの経営戦略や事業開発などのコンサルティングを行うほか、総務省、経済産業省、OECD(経済協力開発機構)などの政府委員を務め、政策立案を支援。2016年からは慶應義塾大学大学院特任准教授を兼務。著書に『5Gでビジネスはどう変わるのか』(日経BP)。その他連載・講演等多数。

 

 

 

 

目次

生成AIを法で御することの難しさ

民間企業がリスクを取って発信したことの意味

データの扱いをどうするのかという重い宿題

テクノロジーの議論で欠落していた人間を洞察する哲学

発信者の実在性と信頼性を技術で担保する

【生成AIのあり方に関する共同提言】

 

 

 

 

 

生成AIを法で御することの難しさ

 

桐原永叔(以下、桐原) ローレンス・レッシグは人々の行動を制約する要素を法律、市場、社会規範、アーキテクチャという4つで説明しました。生成AIがもたらす危機について対処するには、いまのところはイノベーションをどんどん進めることでベネフィットが高まるとすると市場から制約は考えにくいわけで、AIリテラシーを高めて社会規範でコントロールか、システムの仕組みであるアーキテクチャーでコントロールするか。でも変化のスピードが速すぎて、社会もついていけない、技術もついていけないとなると、やはり法規制による制約しかないのでは?というふうに話をうかがっていて考えていました。

 

クロサカタツヤ(以下、クロサカ) 考え方としてはその通りなんですが、大きな課題は、立法には時間がかかるということです。法律ができた暁には一定程度それを機能させることは可能だと思います。ただ、普通に考えると、それこそ民主主義的な正しい手続きを経るならば、これを半年とか1年でつくることは不可能で、どんなに寝ずに頑張ったとしても、最速で2年、普通に丁寧に議論するんだったら3年から5年はかかる話です。そう考えると間に合わないんですよ。じゃあ諦めて何もかも無駄だとアパシー(無関心、無反応)になるのか。それともやれることやろうぜと言うのか。つまり、課題意識をまず持ってもらい、法律をつくるだけではなく、X(旧twitter)のインプ稼ぎを刑法の偽計業務妨害で摘発するように、既存の法律を使うこともできるわけです。そういう意識を持ちながら、では生成AIをどういう風にわれわれは手懐けていけばいいのか、急いで議論しなければいけないということなんだと思います。議論して一定の方針を定めるということは法律よりも早くできるはずですから。

 

桐原 それを政府ではなくて民間が提言しているところが重要ですよね。

 

クロサカ 本来であれば政府がリーダーシップを取るべきところなのかもしれませんが、民間企業は民間企業なりに責任を持っているから、その責任を市民社会のなかでちゃんと果たそうというのが今回の提言の主旨です。日本では珍しい試みだと思います。私も当事者として関わったから理解できているのであって、仮に関わっていなかったとすると、どうしても「商売の意図があるんでしょう?」とゲスの勘繰りをしちゃうわけです。でも、そこじゃない。

 

桐原 私もクロサカさんの名前を見なかったら、少しそういう目で見ていた可能性が高いと思います。

 

クロサカ 今回の提言の特徴は、NTTと読売新聞グループ本社のトップマネジメントが直接主導したということにあると思います。日本の企業社会だとこういう議論は「下々に任せて事務局が回していく」のを私自身もよく見かけますが、今回はトップマネジメントが指名した数名の経営幹部以外は誰も入れていません。アジェンダをつくるとか、有識者を呼んでくるとか、準備するところは慶應が担当しましたけど、議論は俺たちがガチするから、ということになったんです。

 

桐原 なるほど、それで腑に落ちました。実は提言を読んで、ふんわりしたところがなく、具体的な提言だなと思っていました。

 

クロサカ 僕がいちばん最初にドラフトにしたものがふんわりしていて、会長、社長という方々から「もうちょっと踏み込め」「直接書く」と言われました(笑)。

 

桐原 生々しくて骨っぽくて激しいことが書いてありますよね。

 

 

民間企業がリスクを取って発信したことの意味

 

桐原 提言発表後は海外でも反響があったようですね。

 

クロサカ まず、ウォールストリートジャーナルが“前打ち”をしました。東京支局長が直接執筆して、日本版ではなくて英語版で出ました。アメリカでもこういう組み合わせはあんまり見ないと。日本のメディアジャイアントとテックジャイアントがこれだけ危機感を持っていると表明するのは、ニュースバリューとして非常に高いと評価してくれたのだと思います。また、私も自分のソーシャルメディアに載せてみたら、全然知らない海外の人たちから繋がりがくるんですね。そういう意味で、やっぱりこれまでになかった動きなのでしょう。

 

桐原 日本ではどんな受け止められ方だったんですか。

 

クロサカ 先述した通りゲスの勘ぐりをしちゃう人たちがどうしてもいるので、 そういう方々は遠巻きに見ているだけ。私が把握している限り、最初に反応したのは若手官僚の方たちです。

 

桐原 意外ですね。

 

クロサカ 別件で接することが多いので、彼らから話を聞いたんですけど、彼らはすごくポジティブに受け止めてくれていて、あそこまで踏み込んだ内容をリスクを取って企業が発信する社会にようやく日本もなったんだっていう喜びを感じてくれたようです。むしろ官僚でも幹部級は戸惑っていたのかもしれません。

 

桐原 政界の動きはどうなんですか。立法に動こうという機運になりかかっている感じなんですか。

 

クロサカ 立法の動きは実は自民党のなかにもあって、もともと検討は進められていたんですけど、ふんわりした内容を考えていたようなので、いろいろ議論を深めるきっかけになっているようです。読売だけ、NTTだけならさておき、その両者がタッグを組んだのも、インパクトがあったようですね。

 

桐原 お茶を濁すことができなくなったってことですよね。

 

クロサカ 産業界からも、私が知り得る限りですが、上場企業のCDO(Chief Digital Officer=最高デジタル責任者)クラス、つまりデジタルの現実を見ているような方々はかなり反応されています。

 

桐原 なるほど理解できます。

 

クロサカ こんな風に企業が動いていいんだ、動かないとメッセージが伝わらないんだということを理解されている。書かれている内容に合意するかどうかはさて置くとして、AI倫理ガイドラインをつくりましたみたいなことではなく、「これおかしいだろ」、「このままだと大変なことになる」ということを、ステークホルダーにちゃんとわかる言葉で突きつけていったことが新鮮だったようで、ここまでやらないとダメなのかもしれないという気持ちになっているのかもしれません。

 

桐原 これまで、一方的な批判の攻撃はあったのかもしれませんが、こういう問題をフェアな状況で議論する動きが起きなかったじゃないですか。そういう意味で言うと、その若い方たちが議論に入ることは重要ですよね。

 

 

データの扱いをどうするのかという重い宿題

 

桐原 提言のなかにもあったこのB2B2X*3の真ん中のBの企業の方々は、この提言を読んで、危機感というか、自分たちも考えなきゃみたいな動きはありましたか。

 

クロサカ B2B2Xのビジネスモデルはつまりプラットフォーム構造なんですけど、これ自体が実は生成AI以前に理解が難しい話なんです。NTTはずっと以前からB2B2Xと言っていますけれど、この概念自体が難解であると社会には受けとられているように思います。ただし、もはや自分たちだけで完結してテクノロジーをつくったり使ったりはできない。なので、バリューチェーンを理解できないと、 結局リスクの正体も理解できないですよということを言っているわけです。このような「日本社会が解いていない宿題」が、生成AIの問題の前に横たわっているっていうことのメッセージのひとつでもあるんです。「我が国は、こうした戦略性のある、体系的なデータ政策を有しておらず*4」と書いてありますが、個人情報保護法も含めて十分に機能していないのではないか、という問題意識があります。

 

桐原 このB2B2Xのくだりを読んだ時に頭に浮かんだのが「IT批評」でも以前、とりあげたJR東日本の監視カメラ問題でした(JR東日本の監視カメラ問題で露呈した「総括しない日本」)。監視用のAIカメラをつくる会社があって、それを使うJR東日本があって、ユーザーがいてという関係のなかで、問題が起きたときに責任の主体が有耶無耶になる。JRはどこのカメラなのか言わない、提供側も自分たちがつくったとは言わせないみたいな構造なのかなと思ったんですけど。

 

クロサカ そうですね、個人情報保護の話でもありますし、製造物責任の話でもありますし、フィデューシャリー・デューティ(受託者責任)*5の話でもあります。フィデューシャリー・デューティは金融の世界では割と一般的な言葉ですが、サービス一般でデータを扱うとなった瞬間に、議論が急に茫漠になっていくのが日本の特徴であり課題だと思います。AIは、生成AIであってもなくても、基本的にデータを学習して成長していくものには変わりない。ところがそもそも日本社会にとって、あるいは日本人にとってデータとは何なのかについて何も議論されてこなかった。そこに生成AIブームがやってきたのが現在の状況であり、やらなければならない宿題が積みあがりまくっているということを提言には滔々と書かれている訳です。

 

*3:「生成AI の規律と活用を両立する方策の一案として、「B2B2X」のバリューチェーンにおいて利用者である「X」に直接相対するセンターの「B」の主体者が、利用者の生成AI利用時のリスクを解消・吸収する枠組みを検討すべきである。」(「生成AIのあり方に関する共同提言」より)

*4:「我が国はこうした戦略性のある体系的なデータ政策を有しておらず、その整備には長い時間と紆余曲折をたどることも予想される。そのため、長期的には「堅牢で戦略的・体系的なデータ政策」が、また短期的には生成AI時代の「AI×AE」への対処を目指した「部分的な規制」と「実効的な施策」が、それぞれ必要となる。」(「生成AIのあり方に関する共同提言」より)

*5:フィデューシャリー・デューティ(fiduciary duty):資産運用や投資商品に関わる銀行、証券等が負う責務のこと。「受託者責任」と訳される。欧米で一般に浸透している考え方で、信託の受託者は委託者および受益者の利益を第一に考える義務を負うという概念。

 

 

テクノロジーの議論で欠落していた人間を洞察する哲学

 

桐原 今後のアクションについてはどう考えられていますか。

 

クロサカ この三者の枠組みでの検討は継続します。6月ぐらいになると思いますが検討再開です。さらに、慶應義塾大学でも尊厳(ディグニティ)に関する新たな研究拠点を作って検討をさらに加速させようと準備しています。自由や権利といった概念の今回をなす尊厳にきちんとフォーカスを当てた検討をしていこうという動きです。AIの進化はもう止まらないですし、それ以外のデータエコシステムもそうですし、あるいはアテンションエコノミーとかソーシャルメディアであるとか情報の過剰摂取を検討することになります。

 

桐原 新たに検討の仲間を募るのですか。

 

クロサカ センター自体は本件以外にも様々なアジェンダを想定しているので、多くの方にご参加いただきたいと思います。共同提言の取組自体はその一部で、僭越な物言いですが、こうした議論に直接対応いただけるトップマネジメントに参加いただくべきと考えています。

 

桐原 おっしゃる通り、こういう動きを見て、なんか世の中に寄り添うようなかたちでついてくる企業が多いってことも見越しているということですね。テクノロジーの議論のなかでこうした哲学的というか、人間を洞察する視点が欠落しているなと思っていたので本当に面白いなと見ています。ヨーロッパのGDPR(General Data Protection Regulation=EU一般データ保護規則)の真似ではなくて、日本社会に根差したオリジナルなことをやっていこうということですね。

 

クロサカ 政府の動きを否定するわけではありませんが、日本社会に責任を持っている人間として、「私たちは何が欲しいのか」、あるいは「こういう社会になって欲しい」ということは、誰しもが発言できるはずです。日本の企業のなかでもトップにいる方々が自分の言葉で技術や思想を語ることが本当に重要なことだと思います。

 

桐原 それこそ生成AIの時代という人類史上経験したことない時代のなかで、そういうリーダーシップや見識や教養がない人たちが世の中を動かしてしまうともっと危ないことになるという意味では、この提言の重みを感じます。

 

発信者の実在性と信頼性を技術で担保する

 

桐原 提言自体は政策に反映させることがゴールではないんですよね。

 

クロサカ 採用されること自体は歓迎しますが、政策に使ってもらいたいから考える、ということではないですね。

 

桐原 提言のなかの「自由と尊厳を守るための言論空間の確保に向けた法規制と対処する技術の導入」のなかで、クロサカさんが関わられている「オリジネーター・プロファイル*6」が技術的な担保として言及されています。

 

クロサカ NTTと読売新聞社のいずれもオリジネーター・プロファイルの当事者ですし、その思想を少しでも考えるきっかけをここで 持ってほしいと考えました。どういうことかというと、ファクトチェックというのは極めて困難だという前提からスタートしているのがオリジネーター・プロファイルの思想です。何が嘘で何が真実かということは、込み入った論点になればなるほど、状況依存的であり間主観的であって、最後は自分の頭で考えるしかありません。一方、外形的に「これは読売が書いたんですよ」「朝日新聞が書いたんですよ」「NHKではないですよ」という検証は可能です。これは生成AIに対してのスタンスも同じで、どう技術が改善したとしても、生成AIはやっぱり自信たっぷりに嘘をつくわけです。何を基にして情報を吐き出しているのかという以上のことは、自分の頭で考えるしかない。 でも、言論とはそういうものなんだというメッセージを込めました。

 

*6オリジネータープロファイル:Originator Profile 技術は安全なインターネット環境を提供するための仕組みであり、ブラウザなどで採用される Web 標準を目指している。情報コンテンツの作成者や配信サイト運営者、あるいは広告主といった、発信者の実在性と信頼性を確認できる情報を付与する。作成者や組織名のような企業の基本情報に加え、例えば企業姿勢、編集方針、報道責任、編集ガイドライン、プライバシーポリシーのような信頼性に資する情報も含め、第三者による確認を受けた上で署名付きで付与し、ブラウザでの自動検証や認証アイコン付きで表示する仕組み。クロサカタツヤ氏がOriginator Profile 技術研究組合事務局長を務める。

 

(1)を読む