経済学者が取り組むテクノロジーのリスクアセスメント
─大阪大学社会技術共創研究センター長・岸本充生氏に聞く(1)

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

ChatGPTをはじめとする生成AIの爆発的な進化により、AIは人間に脅威を与えるようになっている。国家と企業は垣根を超えての規制やルールづくりに乗り出している。2020年より新しいテクノロジーが社会実装される際に生じうる課題を研究してきたのが大阪大学の通称ELSIセンターである。当センター長である岸本充生氏に、AI実装がもたらす喫緊の課題とは何か、それをどのように捉えているのかお聞きした。

取材:2023年6月28日 トリプルアイズ本社にて

 

 

岸本 充生(きしもと あつお)

大阪大学社会技術共創研究センター(ELSIセンター)センター長。大阪大学データビリティフロンティア機構(IDS)ビッグデータ社会技術部門教授。

京都大学大学院経済学研究科博士後期課程修了。 博士(経済学)。 独立行政法人産業技術総合研究所、東京大学公共政策大学院を経て、2017年から大阪大学データビリティフロンティア機構教授。2020年4月から新設された社会技術共創研究センター長を兼任。

共著に『基準値のからくり』(講談社)、『環境リスクマネジメントハンドブック』(朝倉書店)、『環境リスク評価論』(大阪大学出版会)などがある。

 

 

 

 

 

 

目次

経済学の方法論で環境、安全、健康をアセスメントする

個人情報の提供でわれわれは正当な対価を得ているか

インターネットから画像をスクレイピングして学習に使うことの是非

バイアスがない状態を目標設定する難しさ

 

 

 

 

 

 

 

経済学の方法論で環境、安全、健康をアセスメントする

 

桐原永叔(以下、桐原) 岸本先生は、もともと経済学が専門なのですね。

 

岸本充生氏(以下、岸本) そうですね。経済学には大きく二つあって“対象”が経済なのか“方法”が経済なのかでずいぶん違います。これは哲学や倫理学や心理学でも一緒です。普通に経済学者というと前者を指して、財政や金融の研究をされるのがメインになります。僕は後者のほうでして、大学院生のときにミクロ経済学の方法、特に費用便益分析に魅せられて、マーケットに乗ってないもの──たとえば環境、安全、健康といった領域を価値づけするようなことをやってきました。当時、環境経済学とか医療経済学とか安全・健康の経済学が出はじめた頃です。当時の自分は就職先があるのかどうかなんて考えていなかったのですが、たまたま工業技術院で社会科学系の人を採用する動きがあって、初の社会科系の研究者として工業技術院に入りました。その後3年くらいで、工業技術院が独立法人化して産総研(産業技術総合研究所)になりました。そこで15年間過ごしました。

 

桐原 産総研で環境経済学や費用対効果などを研究されていたのですね。

 

岸本 産総研では経済の専門家として、安全対策や環境対策、健康対策の費用対効果を研究するのがミッションでした。安全や環境のために対策を打つのは当然ですが、やみくもにコストをかけられるわけではありません。費用対効果も考えた効率的な施策を打つための指標づくりが必要だと考えました。例えば化学物質。発がん性の化学物質のリスクを減らそうとしたときに、どのくらいの濃度で摂取したらどのくらいの確率で発がんするというようなリスク評価がないと、対策のコスト計算だけしても意思決定に役に立ちません。当時、誰も手をつけていない分野でしたので、自分でその計算をしないといけないということになって、毒性学や疫学の論文を読んで、(摂取した物質の用量と濃度による生物の反応の関係をみる)用量反応関数を自分で計算したり、工場から出た大気汚染物質がどのくらいの濃度になるかを予想する大気拡散モデルを使って摂取量を予測したりしていました。結局、経済学者として入ったものの、オン・ザ・ジョブ・トレーニングで、いつの間にかリスクアセッサーになってしまい、そういうスタイルで15年やったわけです。その後に、東京大学に特任教授で移りました。

 

桐原 産総研のなかで文系というのは珍しいのではないですか。

 

岸本 産総研では初の経済学者なんですけど、他のエンジニアから見たら僕は文系の人なんですよ。だから法律も心理も全部担わされる。文系から見たら工学と理学の違いや、工学の分野ごとの違いがわからないように、理系から見たら文系の分野の違いがわからない。例えば当時、ナノマテリアルの社会受容性のアンケート調査を毎年やろうということになり、僕がそれ全部を担当しました。他に適任者がいなかったのです。あるいはカーボンナノチューブというナノマテリアルがあったときに、化学物質の法規制でどういう扱いになりそうか調べてくれという法律の話も来る。エンジニアの領域外のことも幅広くやっていました。大阪大学でELSIセンター長になって、初めて自分はこれまでELSI(Ethical, Legal and Social Issues=倫理的・法的・社会的課題)*をずっとやっていたんだなということに気がつきました。それまでの伏線が回収されたという感じで、今は天職だと思ってやっています。

 

桐原 方法としては経済学で、対象として理系的な分野だったということですね。

 

岸本 そうですね。修士論文や博士論文も大気汚染や安全の問題に経済学の方法をどう適用するかという研究です。今でもそうなのですが、安全の問題とか健康の問題にコストの話を持ち込むのはタブーだったんですね。僕は、それはおかしいと思って、修士論文では人を一人救うのにいくらお金をかけるかというのを、アスベスト対策とがん検診と交通事故対策で計算して比較するという、変なことをやったりしていました。

 

桐原 面白いですね。

 

岸本 実際にどれくらい費用をかけているかが分かっても、どれくらいまで費用をかけてよいかはまた別の話です。そこで、社会として人を1人救うのにいくらくらいまでならかけていいのかを推計しました。実は各国に公式の数値があるんですよ。アメリカだったら環境保護庁とかだったら1人あたり10億円とか、運輸省だったら4億円とか。イギリスでも3億円とか算出しています。日本でも、内閣府が交通事故文脈で、僕も委員として参加した検討会で調査した結果を使って2億6000万円くらいの値が出ています。それが一応、日本の唯一の公式の数値ですね。

 

桐原 命の値段の算出ですね。

 

岸本 命の値段というと語弊があるので、統計的生命価値(Value of Statistical Life)と言います。統計的生命価値というのは、1万分の1の確率で起こるリスクに対して1,000円のコストをかけられるとしたら、これを1万倍したら1人あたりの統計的生命価値になります。便宜的に1人あたりに換算しただけの値なんです。アメリカではこの値をめぐって人の命を金銭価値化するとはなにごとだという論争が以前から何度も起こっています。誤解を招くから1人あたりに換算するのはやめようという話もあるのですが、日本ではそこまでの論争はまだありません。人の命は地球より重いとよく言われますが、無限にコストをかけられるわけではありません。できるだけたくさんの人の命を救うのであれば、コストを明示化して、ここにもっとお金を費やしたほうがいいとか、ここに移したほうが効果的だということを、本当は議論しないといけません。

 

桐原 今の話を聞いていて、それこそサンデル教授で有名になった「トロッコ問題」を思い出しました。

 

岸本 サンデル教授は「ハーバード白熱教室」(NHK Eテレ)のある回でまさにその話をしています。いくらまでなら人の命を救うためにお金をかけていいんだろうかと。彼は学生に具体的な額を答えさせて、理由を問い詰めて学生を困らせていました。サンデル教授は統計的生命価値についてもご存知だとは思うのですが、あえて説明しないんですよね。

*ELSI:ELSIとは、倫理的・法的・社会的課題(Ethical, Legal and Social Issues)の頭文字をとったもので、エルシーと読む。新規科学技術を研究開発し、社会実装する際に生じうる、技術的課題以外のあらゆる課題を含む。新規科学技術のイノベーション、すなわち新しい科学技術を社会に普及させ、新たな産業の創造や生活様式の変化にまで導くためには、倫理(E)、法(L)、社会(S)のすべての課題に対処する必要がある。(大阪大学社会技術共創研究センターHPより)

 

 

個人情報の提供でわれわれは正当な対価を得ているか

 

桐原 金額換算、費用換算はデリケートな問題になりがちですよね。本当に必要だとしても。先生から見て、経済的な議論が必要なのはどのあたりでしょうか。

 

岸本 個人情報の売買がまさにそうですよね。日本ではこれがなぜかタブー視されています。個人の情報のうちで、何を売ってよくて何を売ってはいけないのかということを本当はもっと議論しないといけないんですよ。これはアメリカとヨーロッパは態度を明確にしています。ヨーロッパは基本的には個人情報の売買に対してネガティブです。建前上、パーソナルデータというのは基本的人権の一部なので、容易に売買することはよくないという前提で話を進めています。

 

桐原 アメリカは売買が前提になっているんでしょうか。

 

岸本 そうですね。データブローカーという職業が存在していますし、カリフォルニアの法律なんかは、消費者は自分の個人データがどれだけの価値を持っているか知る権利があると定めています。また、売ってほしくない場合はウェブサイトで“do not sell”と意思表示できるようにするということを決めました。ということは、売っていることが前提になっている。翻って日本はどうなのかというと、建前的にはヨーロッパ的なことを言いつつ、実態はアメリカ風に情報銀行とかで売買を進めているという印象です。ポリシーがないし、それ以前にするべき議論がどこでもなされていません。

 

桐原 言われてみたらその通りですね。

 

岸本 欧米の反対派の論調としては、プライバシー情報の売買は臓器売買と一緒だというんですね。そういう喩えを使って批判しています。

 

桐原 自分の一部を切り取っているという考え方ですね。

 

岸本 そうですね。臓器売買のアナロジーはあちこちで使われています。僕は、このアナロジーについて一部は当たっているけど一部は違うかなと思っています。そもそも臓器売買はどこまで認められているんだろうと思って調べたら、臓器ではありませんが、唯一堂々と売買できる体のパーツがあって、髪の毛なんです。血液は2002年に有料での採血の禁止が明文化されています。精子や卵子は微妙で、法律では明示的に禁止されていないけど学会レベルで売買禁止が提言されているのでグレーですね。髪の毛だけ普通に、インターネットサイトで売買されています。血と髪の毛の何が違うかなと思ったら、血はどんどん売るとどこかで健康を害するけれど、髪の毛は全部売ったら取りあえずそれ以上売りようがないので、そこの違いかなと思うんですよね。その違いをパーソナルデータに当てはめたらどうなるのかと考えることが一つのヒントになると思います。

 

桐原 個人情報のやりとりという話になると、自分の個人情報をGoogleのようなジャイアント企業に提供することで、金銭の代わりに利便性という対価が得られているという考え方がありますよね。

 

岸本 それを対価と捉えるか、単なるサービスと言うか。言い方の違いだけかもしれませんが、こだわる人はこだわっていて、対価とは絶対に言っちゃいかんという立場の人もいます。僕が無料でGoogle検索をしているということは、確かにお金を払わずに検索サービスを受けているので便利なことではありますが、実はGoogleはもっと便宜を享受していて、逆に僕に対価を支払うべきかもしれません。こう考えると、自分の個人データがどれだけの価値を持っているか知る権利があるというカリフォルニア州の主張につながります。

 

桐原 もしかしたらメリットが非対称かもしれないわけですね。

 

岸本 確かに一見、需要と供給が均衡しているように見えるのですが、他に選択肢がないからやむを得ずGoogleサービス使っているわけで、似たようなサービスで、検索するたびにポイントがたまるサイトがあれば、そっちに移るかもしれません。

 

桐原 そうですね。比較対象がないから気がつかないだけかもしれません。

 

岸本 本当にマーケットの均衡なのか、単なるGoogleの独占によって生じている状態ではないのか、だから、われわれは「データ労働者だ」という言い方をする人も出てきます。データ労働者は搾取されているので、データ労働組合をつくってストライキをするべきだという人たちもいます(『ラディカル・マーケット 脱・私有財産の世紀:公正な社会への資本主義と民主主義改革』(エリック・A・ボズナー他著 東洋経済新報社)。

 

桐原 税金の議論と似ているかもしれません。必要以上に税金を払っている可能性があると。

 

岸本 一見、自由な取引をしているようで、実は独占状態なので、本当に対等かどうかを議論するべきだという意見もあります。検索サービス以外にも動画サービスなどにも当てはまることです。

 

 

 

 

インターネットから画像をスクレイピングして学習に使うことの是非

 

桐原 生成AIに関連して、イラストレーターがオプトアウトや著作権について主張していますね。

 

岸本 実は似たような話はすでに顔認識技術でも出ていました。顔認証のアルゴリズムを作るためのトレーニングデータは、基本的にインターネットからスクレイピングしています。僕の画像が使われているかどうかは微妙ですけど、俳優や有名人、政治家、大学の先生など、同じ人の画像が複数あるというのが分かっているとトレーニングデータにぴったりなので、そういうものを集めたデータセットがたくさん作られたんです。それらのデータセットを用いてトレーニングされたものが顔認証のアルゴリズムです。そのアルゴリズムで利益を得ている会社がいたとして、トレーニングに僕の画像が使われていたら、先ほどのイラストレーターと近い立場になります。イラストレーターと違って、写真を載せているだけで別になんの努力もしてないので、そこまで主張しなくてもいいかなとは思いますが、深刻なケースもあります。特定の民族を抑圧するためだとか、住民を監視するためのアルゴリズムのトレーニングデータに自分の写真が使われていたという人が抗議しています。

 

桐原 自分の画像が使われたどうかわかるものですか。

 

岸本 どのデータセットを使っているかというのは調べたら分かります。ただし、アルゴリズムになってしまうと個人情報でなくなるので、売買するのも、譲渡するのも自由なんですよね。

 

桐原 ただの統計データですからね。

 

岸本 例えば、使われた人が人権の活動家だったなら、自分の顔写真で訓練されたアルゴリズムが人権抑圧に使われるというのはすごい気持ち悪いことだと思います。このように、インターネットから勝手に、パブリック・アベイラブル(公開情報)だから問題ないとしてスクレイピングして、データセットをつくることはいいのか悪いのかというのは以前から問題になっていました。今回、生成AIがブームになったことで、同じ問題が再燃していますが、これはある程度、予想できたことです。

 

桐原 「IT批評」では以前からヨーロッパやアメリカの状況と比較しながら個人情報の扱いについて検証してきたのですが、こちらが思うほど世間は関心がないように感じます。もしかすると、自分のデータを提供することに関して抵抗感の低くなる文化みたいなものがあるんでしょうか。

 

岸本 あるかもしれないですね。日本ではこれまであまり議論されてこなくて、今回、イラストレーター業界からそういう話が出てきたのは初めてですよね。

 

桐原 AIに学習データが必要である限り、その問題は常につきまといますよね。

 

 

バイアスがない状態を目標設定する難しさ

 

桐原 一般の人たちが考えていることや思っていることをテキストとして学習すると、ある種の偏りだったり差別だったりが増幅されるような生成をAIが行うと言われますが、逆に人為的に制御した学習データを大量に作成することができるのであれば、バイアスをクリアする方法もあるのかなと思うのですが、いかがですか。

 

岸本 それは、現状のステレオタイプやバイアスを矯正することを目的として、あえて女性のお医者さんの画像ばかり学習するとか、そういう意味ですか。

 

桐原 そういう意味です。生成AIでつくられた画像を学習に使えるのであれば、学習データをつくるほうでコントロールできるのではないかと。

 

岸本 技術的には可能だと思いますが、バイアスの問題で難しいのは正解がないところです。Google Translate が出てきたときに、よくトルコ語をチェックに使っていました。トルコ語には、性別がない主語があるからです。トルコ語で「ある人は医者である」と書いて、それを英語に変換したら、当時はHe is a doctorと、医者だったら必ずheになりました。批判が出たことでGoogleは調整したんですよ。今、同じように検索するとHe is a doctor、She is a doctorと2文出てきます。その点では、ずいぶんバイアスは減っていると思います。

 

桐原 顔認証でもバイアスが指摘されていました。

 

岸本 顔認証も当初はアメリカで有色人種や女性に対する精度がものすごく悪いという話になって反対運動が起こりました。その後、どんどん学習データを良くしていくことで、最近ではだいぶ精度が一緒になってきていると言われています。それはどんな民族であっても精度を一緒にするという目標があるから実現できた。だからバイアスを修正しやすい。今の生成AI、特に画像生成AIはどうかというと、例えばCEOとか社長とかを打ち込むと、白人のおじさんばかりが生成されるんですね。女性が出てきてもいいし、もっと若い人やアジア系も出てきたほうがいいとは思うのですが、じゃあ何パーセント入っているのが目標ですかと聞かれると答えに詰まります。あるいは、チアリーダーを生成すると、女性がたくさん出てきますが、半分男性にするべきなのか。アメフト選手の画像も半分女性にするべきなのか。ラッパーの画像も半分白人にするべきなのかとかね。正解がない。

 

桐原 難しいですね。

 

岸本 これが政治家だったら半々にするのを目標にしてもいいと思いますが、他の分野でどういうミックスがバイアスがない状態なのか目標設定をするのは難しい。バイアスがあると指摘するのは簡単ですが。

 

桐原 本当ですね。人間が生活していくうえで、バイアス的なものがあったり、ちょっとした差別だったりとか、ちょっとした誤解とか思い込みがある限り、生成AIのほうだけで調整するというのはいびつな話ですよね。

 

岸本 おっしゃる通りです。例えばeコマースでお客さんが欲しいものを探すというときに、知り合いの5歳の子の誕生日プレゼントを探していますといったら、チャットボットは「男の子ですか、女の子ですか」って普通聞くと思うんです。男の子ですといったら、「じゃあサッカーボールはどうですか」と提案してくれる。実はこれってジェンダーバイアスですよね。ステレオタイプを増強してしまいます。それを避けようと性別を聞かないアプローチにすると、その子は青色が好きですか、赤色が好きですかとか、室内遊びが好きですか、屋外遊びが好きですかとか、そういう回りくどい聞き方をしていって、結局最後はサッカーボールにたどり着くかもしれないけど、ユーザーからすれば「回りくどいな、ダイレクトに聞いてよ」と思うかもしれません。

 

桐原 人間同士のコミュニケーションでは意識されないことも、AI相手になるとクローズアップされてしまう難しさがあります。

 

岸本 そうなんです。我々がAIに何を求めているか問われてしまうんですね。まったくバイアスがないようにすると、すごく使い勝手が悪くなる可能性はあります。かといって、いきなりジェンダーを聞いてくるのもいかがなものかと思います。

 

桐原 ChatGPTも含めて世間一般の人たちが、AIが人間っぽくなったなと感じている裏側にあるのは、人間が持っている曖昧な部分もAIが如実に反映してしまっているからでしょうね。この先、バイアスや差別をとりのぞいて倫理的なAIを開発すると、今度はどんどん人間らしさから離れていくという気がしてきます。倫理的じゃないほうが人間的という皮肉を感じます。

 

岸本 今まで顔認証技術なんかも、われわれ一般人は分析される側でした。データ処理される側だったんです。だから個人の権利を守らなければいけないみたいな論調でしたが、生成AIが出てきたことで、自分たちが使う側、使って発信する側に回ってしまいました。その典型がChatGPTで、自分たちがむしろステレオタイプ、バイアスを広める側になるかもしれない。そういうときにどんなルールを課せばいいのかというのは、考え直したほうがいい気がします。

(2)に続く