EU(欧州連合)のAI利用に関する規制案から
コロナは監視社会を容認させたのか?
1975年生まれ。慶應義塾大学・大学院(政策・メディア研究科)修士課程修了。三菱総合研究所を経て、2008年に株式会社 企 (くわだて)を設立。通信・放送セクターの経営戦略や事業開発などのコンサルティングを行うほか、総務省、経済産業省、OECD(経済協力開発機構)などの政府委員を務め、政策立案を支援。2016年からは慶應義塾大学大学院特任准教授を兼務。近著『5Gでビジネスはどう変わるのか』(日経BP刊)。その他連載・講演等多数。
コロナ対応では公益志向が発現しなかった日本
近年の日本は、公益(パブリック・インタレスト)に対して一定以上の理解を示し、公益が認められる場合は自分のプライバシーも多少は犠牲にして、全体の利益のために社会を設計しよう、というような指向性を(いいか悪いかは別として)本来は持っていたように思えます。
一例を挙げれば、日本は世界有数の「防犯カメラ」の国です。特に東京のような大都市にはすごい数のカメラがあります。コンビニに入ろうとすると入り口のところにカメラが何台かあり、ATMにあり、店内中に張り巡らされています。これを監視カメラだと言い換えると、拒否反応が出てきますが、コンビニのカメラは防犯目的にしか使っておらず、このカメラがあることによって店とお客様の安全は保たれており事件を未然に防いでいますという言い方をされると、カメラをどんどん設置する方向に傾いていきます。
また警察が捜査協力を求めると、日本人は市民も企業も極めて協力的な姿勢をとります。強盗が起きたらすぐに軒先のカメラの映像を提供するし、ドライブレコーダーの映像も提供します。こうした捜査協力の要請には、すべてにおいて裁判所が令状を出しているわけではなく、むしろ多くの場合は、「善意に基づく任意のお願い」に市民が応じているはずです。
そういう社会だったはずですが、コロナではなぜか正反対のことが起きました。例えばCOCOAの複雑なシステムです。
COCOAのユーザーの特定はアプリをインストールしただけはできません。自分が感染したことを疑って、しかも濃厚接触したらしいことがわかって、症状がはっきり出て、医師から陽性だと告げられたとする。仮にその人がCOCOAを使っていたとしたら、医師から保健所に連絡が行って、保健所から本人に「あなたはCOCOAを使っていますか? 保健所としてあなたが陽性であるということをシステム上でフラグを立てたいので番号を入れてください」と連絡がきて、本人が番号を入力することでやっとユーザーが特定されます。当事者にとっては複雑極まりなく難解なプロセスがあるわけです。案の定、途中で情報が途切れてしまい、陽性だったのにCOCOA上で陽性登録がされていないというケースも散見されるようです。
データ漏洩等のインシデントに対するマスメディアやSNSの反応を見ると、我々日本人はプライバシーに対して、一見するとうるさいように見えます。しかし平時は非常に大雑把に考えているし、捜査当局に対する親和性もとても高い。公益という美名の下で、防犯や治安と比較した場合にプライバシーを重視しない一面を有する国民性なのかもしれません。実際に欧州政府が日本に対してGDPR(欧州データ保護規則)の十分性認定を評価する際、捜査当局と民間部門の「曖昧な関係」については、一定の懸念を含む指摘があったようです。
しかしながら、コロナ対応においては、日本は欧米に比べても公益から遠い状態になってしまいました。これはコロナで急にプライバシーに対する意識が高まったわけではなく、日頃からプライバシーの扱いをどうするのかという議論がなかったので、合意形成を図る時間が足りず、個人の権利を守るべきだという価値の評価が優位になったのだと考えています。もちろん「判断がつかない時は私権を重視すべし」という判断自体は妥当のようにも見えますが、一方でその影響を受けたCOCOAは複雑で難易度の高いシステムになってしまった。極めて悩ましい問題が、今日現在も横たわっています。
ザル法にならざるを得なかったEUのAI規制案
今まで監視社会の是非やプライバシーの保護についてマクロな視点から抽象的に論じられていたものが、コロナ以降、具体的でミクロな状況に落とし込まれた瞬間、国ごとにあるいは個人個人で考え方がバラバラであったことが暴露されてしまった。監視の是非やプライバシーや個人の権利利益について、実はなんら合意形成がなされていなかったーーこう言うと、さすがに言い過ぎかもしれません。しかし、私達が本当に何を求めているのか、十分に言語化されている状況ではないとは、言えると思います。
ここで、EUのAI規制案に話を戻します。倫理的AIをどうやって実現するのかについては、大きく3つの方法が考えられます。①法律を作って政府が厳しく規制する(法規制)、②民間が自ら規制する(自主規制)、③法律をもとにして業界単位で制定したルールに基づき実際の詳細な運用については業界団体のような当事者に委ねる(共同規制)ーーという方法が考えられます。どれがいいのか、世界中でいろいろ議論されてきました。
本件に関心を寄せる研究者や事業者は、ヨーロッパは共同規制に近い形を取るのだろう、これまでガイドラインや倫理的なAIを作るためのチェックリストなどを世の中に提供してきたので、規制を打ち出すまでには時間をかけるのではないかと見る向きが、少なからずいました。ところが今回、予想よりもかなり強い法規制ベースのAI規制案が出たことで、関係者は驚愕しました。
ただし、中身を細かく読み始めると例外規定が山ほどあり、漏れや抜け道が用意された規制案であるというのが現在の評価です。ではなぜそうなったのか。欧州の規制当局や研究者と意見交換したわけではなく、私の所感ですが、やはりコロナ禍の影響が大きいと見ています。AIや新しいテクノロジーが我々の命を守るために必要かもしれないという状況において、それを強く規制してしまっていいのかという議論があったのだと思います。また先ほど述べたように、個人の権利やプライバシー保護に関して欧州域内といえども国によって考え方がまとまらない以上、抜け道を作らざるを得なかったのでしょう。
そんな漏れや抜け道が多い規制案の中でも、比較的厳しく位置付けられているのが法執行機関によるAI利用に関する規制です。
これはヨーロッパの歴史文脈で考えなければならないのですが、第2次世界大戦以降のヨーロッパは明確にナチスドイツへの反省を出発点にしています。その考え方に基づいて公的機関、法執行機関に対する制限が規定されてきました。各国の個人情報保護法制が、民間部門よりも公的部門を先んじて規制していた歴史を考えても、明らかでしょう。
これはコロナ禍であってもブレていません。基本的に政府というものは規制されるべき存在であると考えられています。政府は一人ひとりの個人に対しての権利利益への侵害に対しては極めて慎重にならなければならない、という考え方は一貫しています。法執行機関という、法治国家においては優先的に正当化されがちなかなり強い存在に対して、AIという極めて強力なテクノロジーを野放図に与えてもいいのか、当然制限されるべきだという考え方が背景にあります。
一方、コロナ対応におけるドイツとフランスの違いを思い出していただければわかることですが、AI規制についても西側ヨーロッパにおいてさえもかなりの温度差が出てくることは容易に想像されます。今後、欧州委員会でまとめていく話になりますが、各国で議論が割れていくと思いますし、各国法に落とし込まれる過程で例外規定が増えていくことが想定されます。
AI利用とプライバシーについて正面から議論するべき時期に来ている
こうした議論が世界中で起こっている中で、コロナというものを経験した後に、我々日本人はAIというテクノロジーを、どのように受け止めていけばいいのか、あるいは個人の権利やプライバシーをどう扱っていくべきなのか、という問題が提起されていくでしょう。
これについては、私は日本人はAI利用とプライバシーについて正面から議論するべき時期に来ていると思います。これまでは、公共の利益に資するのであればなんでもOKというような大雑把な考え方が幅を利かせすぎていました。どこにでも防犯カメラがあっていいものなのかは考えるべきですし、捜査当局に協力しない市民は非国民であるというような状況はもう少し踏みとどまって考えるべきだろうと思います。
例えば、自分のドライブレコーダーの映像を警察に提供するということは(我々は運転していて歩行者の顔を覚えていませんが)、そこに映っている情報全てを警察に提供していることになりうる。人がどの時間にどこを歩いていたという情報は、実はプライバシーそのものなのですが、そのことに無頓着すぎるのです。
防犯は社会の秩序を守るためには必要なものであるという議論は十分理解できますし、私だって安全であった方がいい。自ら必要を認めれば警察に協力します。ただ、それによって制限されているものが何なのか、我々はどういう自由を犠牲にして治安を手に入れているのか、それにはどんな利益があるのか、といったことについて、もっと比較衡量すべきだと考えます。状況によっては防犯よりもプライバシーの方が大事だという判断がありうることを、もっと理解しなければならない。
たとえばつい先ごろも、欧州のデータプライバシー監督当局は、eプライバシー規則案の検討の一環として、児童の性的虐待に係る捜査であったとしても被疑者のプライバシーは尊重されるべきだと主張し、捜査の強制力を弱めるような法整備が進みそうな状況です。私は子を持つ親なので、その立場としてはこうした欧州の考え方はプライバシーに対する権利意識が強すぎるのではないかとも思いますし、このような状況には困惑することもあります。しかし一方で、データプライバシーで尊重されるべき権利や利益を考えると、受け入れざるを得ないとも思う。
それどころか、これからは新しいテクノロジーがどんどん実空間の中に埋め込まれていく社会が出現します。拙著にも書いたことですが、空間の中にテクノロジーが埋め込まれていくと、自分と社会とテクノロジーをどう関連づけるのかが、問題としてクローズアップされてくるはずです。
どこまでであれば自由を認められるのか。反対に、どこまでであれば制限されても我慢できるのか。これ以上譲るわけにはいかない線はどの辺にあるのか、それは共通の権利利益として合意形成できるのか。我々はこうした観点から、あらゆる問題を比較衡量する癖を身につけなければなりません。
AIをどう社会の仕組みとして位置付けていくのか、誰にそれをオペレーションしてもらうのかについて議論して、社会の多くの人が納得した上でステップを踏んでいかない限り、「AIは怖いからやめよう」か「AIをぜったいに入れろ」という両極にしか振れなくなってしまうでしょう。不毛な議論が続くと、意思決定が遅れ、意思決定が遅れると導入が遅れ、テクノロジー後進社会になりかねません。
社会課題を解決できないテクノロジーは消えていく
私はテクノロジーと社会の関係についてはこう考えています。つまり、社会課題を解決できないテクノロジーは消えていくと。すでに個人のレベルでは我々は十分に豊かで便利な状況を享受しています。人間の歴史上、便利さで言えば到達点に達しているでしょう。この先テクノロジーは、一人の人間の問題ではなく、人間が集まったときに発生する問題を解決するものになっていかないと意味がありません。これは今に始まった話ではなく、近代以降、テクノロジーは社会課題を解決することで生き残ってきました。自動車というテクノロジーはドライバー一人の道具ではありません。ドライバーは運転手であり、人や荷物をどうやって運ぶのかという課題を解決したから生き残ってきたのです。
我々はIT=パーソナルテックと捉えがちですが、テクノロジーがもっと明示的に社会全体、社会の多くの人々のために価値を提供していく方向に強く志向されていくでしょう。
テクノロジーが社会に役割を果たしていく際の大前提として、そこで言っている社会とはどんな社会なのか、人が本当に必要とする公共性とは何かについて、もう一回議論し直せ、ということをコロナに言われているような気がします。