コロナは監視社会を容認させたのか?
――EU(欧州連合)のAI利用に関する規制案から

REPORTおすすめ
テキスト クロサカ タツヤ
企代表取締役・慶應義塾大学大学院特任准教授

目次

EU(欧州連合)のAI利用規制案をどう読むのか

言葉は同じでも中身が違っていた「人権」

コロナが露わにした各国の人権意識の差

コロナ対応では公益志向が発現しなかった日本

ザル法にならざるを得なかったEUのAI規制案

AI利用とプライバシーについて正面から議論するべき時期に来ている

社会課題を解決できないテクノロジーは消えていく

 

 

 

EU(欧州連合)のAI利用規制案をどう読むのか

 

EU(欧州連合)がAIの利用に関する規制案を公表したというニュースは日本でも大きく取り上げられました。監視社会につながる懸念から世界で議論になっている、公共空間で顔認証システムを使った捜査を制限する案です。この規制案によって、市民の権利侵害を防ぎ、企業のAI研究と利用に関するルールづくりで先鞭をつけるという狙いがあります。

EU行政府の欧州委員会はこの規制案の中で、AI利用がもたらすリスクを4段階に分類しており、最も危険な「禁止すべきリスク」として、公の場で警察などの公権力がリアルタイムで顔認証などの生体認証技術を使って捜査することや、政府による個人の信用格付けなどを挙げています。

2番目に危険な「高リスク」分類では、企業の採用面接や教育現場での試験の採点、国境管理などを例示し、利用時には事前に審査が必要だとしました。禁止項目に違反した場合、最大で3千万ユーロ(約40億円)か、世界売上高の6%のどちらか高い方を罰金として科す規定も設けています。

規制案の狙いは、市民の基本的権利を守り、AIを安心して使える環境を整えることです。特に規制が必要としているのが、顔認証技術を用いた警察捜査です。

顔認証技術は、カメラがとらえた人の顔画像をAIが分析し、事前に登録された顔画像と突き合わせることで、特定の人物を洗い出せるため、多くの国々の捜査当局が凶悪犯の捜査などへの活用を期待しています。しかし、欧州委員会は公共の場での利用は、行方不明の子どもの捜索や差し迫ったテロの脅威を防ぐためなどに限定されるべきだとしています。

 

日本でも防犯カメラは街中の至るところに設置されており、「動く防犯カメラ」とも言われるドライブレコーダーは2019年の国交省の調査では、装着率が45.9%と約半数に上っています。これらのカメラから取得された顔画像をもとにいくつかの凶悪事件が解決されていることから、すでに顔認証技術は警察の捜査の主力として大きく貢献していると推測されます。

このことは、日本のような防犯カメラがたくさんある社会では、公共空間で知らない間に顔画像が記録され、プライバシーが侵害される可能性があることを示唆しています。一方で、こうした手法による治安の維持には、一定の公益があるとも考えられます。

私たちは、プライバシーの保護と公共の利益のバランスをどうとるべきなのか、AIにどこまで個人情報を渡すべきなのかを議論し、合意形成を図る時期に来ています。

本稿では、議論のための材料として、今回のEU(欧州連合)規制案が出てきた背景とコロナを契機として露わになった各国の人権に対する意識に触れながら、テクノロジーと人間の対峙のあり方について、考察を試みます。

 

 

言葉は同じでも中身が違っていた「人権」

 

アメリカやヨーロッパや日本など、いわゆる民主主義を標榜している西側諸国と呼ばれる国々では、自由と人権は尊重されるべきものだという共通理解があります。

しかし、実は人権の捉え方は国によってかなり多様性があります。世界中で人権(human rights)という言葉を用いますが、それが具体的に何を指していて、それに紐づくどのような権利が認められて、憲法をはじめとした法律で規定されているのか。その権利を行使するということは、誰にとっての権利や利益なのか、誰にとっての自由であるのか。また、その権利を行使することによって何らかの制約を受ける人々がいる場合、それは果たして誰なのか。これらの考え方が国によって異なるのです。

比較法制研究に詳しい憲法学者などは百も承知だったのですが、権利に対する解釈の多様性によって生じる相違や矛盾をすべて解消しようとすると、国際的な議論が成立しなくなります。そのため、国際機関等での検討において、細かな解釈の違いは捨象されることがしばしばありました。国によって文化によってそれぞれ法律があり、ヨーロッパの法律を日本で守る必要はないわけですし、逆もまたないわけです。そこで、目指している理想像、ありたい姿としての国ごとの最大公約数として、人権などの基本的権利については議論されてきました。ただ、言葉(記号)だけは揃っているけれども、そこから先についてはお互いに議題にしないというのが暗黙の了解だったわけです。

私はOECDの作業部会に参加していた際、プライバシーガイドラインのアップデートに関する議論に立ち会いました。プライバシーガイドラインの作業部会は20カ国以上が参加していて、会議が長時間になると帰りの飛行機に間に合わない人が出てくるので、通常はその場では込み入った話はしません。ただし、本当に重要な文書をまとめなければならないときには、たった一つの単語を使うか使わないかで、1カ月くらい議論することもあります。国ごとの考え方の違いをまとめるのはそれぐらいタフな話なのです。

こうした考え方の格差を、平時には詳らかにしないで、風呂敷をかけて人権という尊い考え方を「リスペクトします」という姿勢を取ってきたわけです。守りますとか行使しますとは言わないわけです。

 

 

コロナが露わにした各国の人権意識の差

 

平時にはそれで済んでいた話でしたが、新型コロナウイルスの流行によって、それぞれの国の人権意識、プライバシーに対する意識、政府や法執行機関と市民の意識がまちまちな状態であることが浮き彫りになりました。

コロナは人の命がかかわる事態です。権利の中でも命と金を比べると、命の方が優先されるわけで、あの中国でさえも建前の上では命の方が大事だと言っています。コロナは命の問題であるとなった途端に、それぞれの国のプライバシーや人権にかかわるシビアな問題が露呈しました。

例えば、監視です。コロナは人と人が密に接触すると感染しやすい状況が生まれる感染症です。そこで、都市部では人の動きを可視化しようという動きが出てきて、今でもそれが重要な対策になっています。日本でも、渋谷のスクランブル交差点や東京駅で、人出の増減を測定していますが、当然カメラで監視しなければできないことです。しかも高精細カメラでなければ人の数はカウントできないので、ズームすれば個人を特定することも不可能ではありません。実際にはそんな運用はしていないし、それを慎むようにしているわけですが、これをもって監視だと言う人もいるでしょうし、その主張には一度耳を傾ける必要がある。

これを監視と捉えるか、それとも公衆衛生にかかわる多くの人にとっての利益(公益=パブリック・インタレスト)を達成するための重要な手段であると捉えるか。この認識が国によって全然違うわけです。日本のようにカメラの使用に何の制限もなくおかしいと声を上げる人が少ない国もあれば、街中にカメラを置くことに対して市民がアレルギー反応を示す国もあります。冒頭で欧州の規制案に触れましたが、それだけでなく、公的機関によるカメラ利用は、米国の方が日本よりも規制が厳しいという一面もあります。

あるいは行動制限です。自由に行動・移動するというのは、基本的な権利の最たるものですが、これがロックダウンという形でフランスやイギリスでは制限されました。幸い(と言っていいかどうか微妙ですが)、日本やドイツでは強権的なロックダウンは行われることなく、自粛という形で「国民の良識」に行動を委ねられました。

フランスは、平時には人権意識が非常に高く、個々の権利について大事にしている国ですが、コロナ対応では厳格にロックダウンやシャットダウンをして、従わない者は逮捕するというように、強権的に個人の権利利益を制限する施策を取りました。平時にはプライバシーについて非常に大事にするけれども、いざというときには、防犯のためになどという美辞で隠すことなく監視もするし、行動制限もするわけです。

これはこんなふうに説明できるかもしれません。日本人やドイツ人は政府を信頼し、政府の指示に割と従順であり、周囲への同調性が高いことで、強権的な制限を必要としなかった。一方フランスは個人の権利意識が高いので自粛という曖昧な形ではなく明示的な刑法によって制限しなければならなかった。政治学(とりわけ政治文化論)では、前者を臣民型、後者と市民型と呼ぶことがありますが、特に政府との関係における国民性の違いが、公益や人権の考え方に影響を及ぼしていのではないか、ということです。

ただ、結果として、どちらが良かったのかはわかりません。日本でもドイツでもフランスでもコロナ禍が収束する兆しは見せていません。仮に臣民型が優れているとしてみたとしても、日本とドイツでは感染に係る状況がまったく異なるので、仮説は崩れます。私達は思いのほか、厄介な問題と向かい合っているのです。

 

 

Photo by Shalom de León on Unsplash

 

 

コロナ対応では公益志向が発現しなかった日本

 

近年の日本は、公益(パブリック・インタレスト)に対して一定以上の理解を示し、公益が認められる場合は自分のプライバシーも多少は犠牲にして、全体の利益のために社会を設計しよう、というような指向性を(いいか悪いかは別として)本来は持っていたように思えます。

一例を挙げれば、日本は世界有数の「防犯カメラ」の国です。特に東京のような大都市にはすごい数のカメラがあります。コンビニに入ろうとすると入り口のところにカメラが何台かあり、ATMにあり、店内中に張り巡らされています。これを監視カメラだと言い換えると、拒否反応が出てきますが、コンビニのカメラは防犯目的にしか使っておらず、このカメラがあることによって店とお客様の安全は保たれており事件を未然に防いでいますという言い方をされると、カメラをどんどん設置する方向に傾いていきます。

また警察が捜査協力を求めると、日本人は市民も企業も極めて協力的な姿勢をとります。強盗が起きたらすぐに軒先のカメラの映像を提供するし、ドライブレコーダーの映像も提供します。こうした捜査協力の要請には、すべてにおいて裁判所が令状を出しているわけではなく、むしろ多くの場合は、「善意に基づく任意のお願い」に市民が応じているはずです。

そういう社会だったはずですが、コロナではなぜか正反対のことが起きました。例えばCOCOAの複雑なシステムです。

COCOAのユーザーの特定はアプリをインストールしただけはできません。自分が感染したことを疑って、しかも濃厚接触したらしいことがわかって、症状がはっきり出て、医師から陽性だと告げられたとする。仮にその人がCOCOAを使っていたとしたら、医師から保健所に連絡が行って、保健所から本人に「あなたはCOCOAを使っていますか? 保健所としてあなたが陽性であるということをシステム上でフラグを立てたいので番号を入れてください」と連絡がきて、本人が番号を入力することでやっとユーザーが特定されます。当事者にとっては複雑極まりなく難解なプロセスがあるわけです。案の定、途中で情報が途切れてしまい、陽性だったのにCOCOA上で陽性登録がされていないというケースも散見されるようです。

データ漏洩等のインシデントに対するマスメディアやSNSの反応を見ると、我々日本人はプライバシーに対して、一見するとうるさいように見えます。しかし平時は非常に大雑把に考えているし、捜査当局に対する親和性もとても高い。公益という美名の下で、防犯や治安と比較した場合にプライバシーを重視しない一面を有する国民性なのかもしれません。実際に欧州政府が日本に対してGDPR(欧州データ保護規則)の十分性認定を評価する際、捜査当局と民間部門の「曖昧な関係」については、一定の懸念を含む指摘があったようです。

しかしながら、コロナ対応においては、日本は欧米に比べても公益から遠い状態になってしまいました。これはコロナで急にプライバシーに対する意識が高まったわけではなく、日頃からプライバシーの扱いをどうするのかという議論がなかったので、合意形成を図る時間が足りず、個人の権利を守るべきだという価値の評価が優位になったのだと考えています。もちろん「判断がつかない時は私権を重視すべし」という判断自体は妥当のようにも見えますが、一方でその影響を受けたCOCOAは複雑で難易度の高いシステムになってしまった。極めて悩ましい問題が、今日現在も横たわっています。

 

 

ザル法にならざるを得なかったEUのAI規制案

 

今まで監視社会の是非やプライバシーの保護についてマクロな視点から抽象的に論じられていたものが、コロナ以降、具体的でミクロな状況に落とし込まれた瞬間、国ごとにあるいは個人個人で考え方がバラバラであったことが暴露されてしまった。監視の是非やプライバシーや個人の権利利益について、実はなんら合意形成がなされていなかったーーこう言うと、さすがに言い過ぎかもしれません。しかし、私達が本当に何を求めているのか、十分に言語化されている状況ではないとは、言えると思います。

 

ここで、EUのAI規制案に話を戻します。倫理的AIをどうやって実現するのかについては、大きく3つの方法が考えられます。①法律を作って政府が厳しく規制する(法規制)、②民間が自ら規制する(自主規制)、③法律をもとにして業界単位で制定したルールに基づき実際の詳細な運用については業界団体のような当事者に委ねる(共同規制)ーーという方法が考えられます。どれがいいのか、世界中でいろいろ議論されてきました。

本件に関心を寄せる研究者や事業者は、ヨーロッパは共同規制に近い形を取るのだろう、これまでガイドラインや倫理的なAIを作るためのチェックリストなどを世の中に提供してきたので、規制を打ち出すまでには時間をかけるのではないかと見る向きが、少なからずいました。ところが今回、予想よりもかなり強い法規制ベースのAI規制案が出たことで、関係者は驚愕しました。

ただし、中身を細かく読み始めると例外規定が山ほどあり、漏れや抜け道が用意された規制案であるというのが現在の評価です。ではなぜそうなったのか。欧州の規制当局や研究者と意見交換したわけではなく、私の所感ですが、やはりコロナ禍の影響が大きいと見ています。AIや新しいテクノロジーが我々の命を守るために必要かもしれないという状況において、それを強く規制してしまっていいのかという議論があったのだと思います。また先ほど述べたように、個人の権利やプライバシー保護に関して欧州域内といえども国によって考え方がまとまらない以上、抜け道を作らざるを得なかったのでしょう。

 

そんな漏れや抜け道が多い規制案の中でも、比較的厳しく位置付けられているのが法執行機関によるAI利用に関する規制です。

これはヨーロッパの歴史文脈で考えなければならないのですが、第2次世界大戦以降のヨーロッパは明確にナチスドイツへの反省を出発点にしています。その考え方に基づいて公的機関、法執行機関に対する制限が規定されてきました。各国の個人情報保護法制が、民間部門よりも公的部門を先んじて規制していた歴史を考えても、明らかでしょう。

これはコロナ禍であってもブレていません。基本的に政府というものは規制されるべき存在であると考えられています。政府は一人ひとりの個人に対しての権利利益への侵害に対しては極めて慎重にならなければならない、という考え方は一貫しています。法執行機関という、法治国家においては優先的に正当化されがちなかなり強い存在に対して、AIという極めて強力なテクノロジーを野放図に与えてもいいのか、当然制限されるべきだという考え方が背景にあります。

一方、コロナ対応におけるドイツとフランスの違いを思い出していただければわかることですが、AI規制についても西側ヨーロッパにおいてさえもかなりの温度差が出てくることは容易に想像されます。今後、欧州委員会でまとめていく話になりますが、各国で議論が割れていくと思いますし、各国法に落とし込まれる過程で例外規定が増えていくことが想定されます。

 

 

AI利用とプライバシーについて正面から議論するべき時期に来ている

 

こうした議論が世界中で起こっている中で、コロナというものを経験した後に、我々日本人はAIというテクノロジーを、どのように受け止めていけばいいのか、あるいは個人の権利やプライバシーをどう扱っていくべきなのか、という問題が提起されていくでしょう。

これについては、私は日本人はAI利用とプライバシーについて正面から議論するべき時期に来ていると思います。これまでは、公共の利益に資するのであればなんでもOKというような大雑把な考え方が幅を利かせすぎていました。どこにでも防犯カメラがあっていいものなのかは考えるべきですし、捜査当局に協力しない市民は非国民であるというような状況はもう少し踏みとどまって考えるべきだろうと思います。

例えば、自分のドライブレコーダーの映像を警察に提供するということは(我々は運転していて歩行者の顔を覚えていませんが)、そこに映っている情報全てを警察に提供していることになりうる。人がどの時間にどこを歩いていたという情報は、実はプライバシーそのものなのですが、そのことに無頓着すぎるのです。

防犯は社会の秩序を守るためには必要なものであるという議論は十分理解できますし、私だって安全であった方がいい。自ら必要を認めれば警察に協力します。ただ、それによって制限されているものが何なのか、我々はどういう自由を犠牲にして治安を手に入れているのか、それにはどんな利益があるのか、といったことについて、もっと比較衡量すべきだと考えます。状況によっては防犯よりもプライバシーの方が大事だという判断がありうることを、もっと理解しなければならない。

たとえばつい先ごろも、欧州のデータプライバシー監督当局は、eプライバシー規則案の検討の一環として、児童の性的虐待に係る捜査であったとしても被疑者のプライバシーは尊重されるべきだと主張し、捜査の強制力を弱めるような法整備が進みそうな状況です。私は子を持つ親なので、その立場としてはこうした欧州の考え方はプライバシーに対する権利意識が強すぎるのではないかとも思いますし、このような状況には困惑することもあります。しかし一方で、データプライバシーで尊重されるべき権利や利益を考えると、受け入れざるを得ないとも思う。

それどころか、これからは新しいテクノロジーがどんどん実空間の中に埋め込まれていく社会が出現します。拙著にも書いたことですが、空間の中にテクノロジーが埋め込まれていくと、自分と社会とテクノロジーをどう関連づけるのかが、問題としてクローズアップされてくるはずです。

どこまでであれば自由を認められるのか。反対に、どこまでであれば制限されても我慢できるのか。これ以上譲るわけにはいかない線はどの辺にあるのか、それは共通の権利利益として合意形成できるのか。我々はこうした観点から、あらゆる問題を比較衡量する癖を身につけなければなりません。

AIをどう社会の仕組みとして位置付けていくのか、誰にそれをオペレーションしてもらうのかについて議論して、社会の多くの人が納得した上でステップを踏んでいかない限り、「AIは怖いからやめよう」か「AIをぜったいに入れろ」という両極にしか振れなくなってしまうでしょう。不毛な議論が続くと、意思決定が遅れ、意思決定が遅れると導入が遅れ、テクノロジー後進社会になりかねません。

 

 

社会課題を解決できないテクノロジーは消えていく

 

私はテクノロジーと社会の関係についてはこう考えています。つまり、社会課題を解決できないテクノロジーは消えていくと。すでに個人のレベルでは我々は十分に豊かで便利な状況を享受しています。人間の歴史上、便利さで言えば到達点に達しているでしょう。この先テクノロジーは、一人の人間の問題ではなく、人間が集まったときに発生する問題を解決するものになっていかないと意味がありません。これは今に始まった話ではなく、近代以降、テクノロジーは社会課題を解決することで生き残ってきました。自動車というテクノロジーはドライバー一人の道具ではありません。ドライバーは運転手であり、人や荷物をどうやって運ぶのかという課題を解決したから生き残ってきたのです。

我々はIT=パーソナルテックと捉えがちですが、テクノロジーがもっと明示的に社会全体、社会の多くの人々のために価値を提供していく方向に強く志向されていくでしょう。

テクノロジーが社会に役割を果たしていく際の大前提として、そこで言っている社会とはどんな社会なのか、人が本当に必要とする公共性とは何かについて、もう一回議論し直せ、ということをコロナに言われているような気がします。

 

 

 

 

クロサカ タツヤ

株式会社 企(くわだて)代表取締役
慶應義塾大学大学院政策・メディア研究科特任准教授
1975年生まれ。慶應義塾大学・大学院(政策・メディア研究科)修士課程修了。三菱総合研究所を経て、2008年に株式会社 企 (くわだて)を設立。通信・放送セクターの経営戦略や事業開発などのコンサルティングを行うほか、総務省、経済産業省、OECD(経済協力開発機構)などの政府委員を務め、政策立案を支援。2016年からは慶應義塾大学大学院特任准教授を兼務。近著『5Gでビジネスはどう変わるのか』(日経BP刊)。その他連載・講演等多数。