大阪大学社会技術共創研究センター長・岸本充生氏に聞く
(1)経済学者が取り組むテクノロジーのリスクアセスメント
バイアスがない状態を目標設定する難しさ
桐原 一般の人たちが考えていることや思っていることをテキストとして学習すると、ある種の偏りだったり差別だったりが増幅されるような生成をAIが行うと言われますが、逆に人為的に制御した学習データを大量に作成することができるのであれば、バイアスをクリアする方法もあるのかなと思うのですが、いかがですか。
岸本 それは、現状のステレオタイプやバイアスを矯正することを目的として、あえて女性のお医者さんの画像ばかり学習するとか、そういう意味ですか。
桐原 そういう意味です。生成AIでつくられた画像を学習に使えるのであれば、学習データをつくるほうでコントロールできるのではないかと。
岸本 技術的には可能だと思いますが、バイアスの問題で難しいのは正解がないところです。Google Translate が出てきたときに、よくトルコ語をチェックに使っていました。トルコ語には、性別がない主語があるからです。トルコ語で「ある人は医者である」と書いて、それを英語に変換したら、当時はHe is a doctorと、医者だったら必ずheになりました。批判が出たことでGoogleは調整したんですよ。今、同じように検索するとHe is a doctor、She is a doctorと2文出てきます。その点では、ずいぶんバイアスは減っていると思います。
桐原 顔認証でもバイアスが指摘されていました。
岸本 顔認証も当初はアメリカで有色人種や女性に対する精度がものすごく悪いという話になって反対運動が起こりました。その後、どんどん学習データを良くしていくことで、最近ではだいぶ精度が一緒になってきていると言われています。それはどんな民族であっても精度を一緒にするという目標があるから実現できた。だからバイアスを修正しやすい。今の生成AI、特に画像生成AIはどうかというと、例えばCEOとか社長とかを打ち込むと、白人のおじさんばかりが生成されるんですね。女性が出てきてもいいし、もっと若い人やアジア系も出てきたほうがいいとは思うのですが、じゃあ何パーセント入っているのが目標ですかと聞かれると答えに詰まります。あるいは、チアリーダーを生成すると、女性がたくさん出てきますが、半分男性にするべきなのか。アメフト選手の画像も半分女性にするべきなのか。ラッパーの画像も半分白人にするべきなのかとかね。正解がない。
桐原 難しいですね。
岸本 これが政治家だったら半々にするのを目標にしてもいいと思いますが、他の分野でどういうミックスがバイアスがない状態なのか目標設定をするのは難しい。バイアスがあると指摘するのは簡単ですが。
桐原 本当ですね。人間が生活していくうえで、バイアス的なものがあったり、ちょっとした差別だったりとか、ちょっとした誤解とか思い込みがある限り、生成AIのほうだけで調整するというのはいびつな話ですよね。
岸本 おっしゃる通りです。例えばeコマースでお客さんが欲しいものを探すというときに、知り合いの5歳の子の誕生日プレゼントを探していますといったら、チャットボットは「男の子ですか、女の子ですか」って普通聞くと思うんです。男の子ですといったら、「じゃあサッカーボールはどうですか」と提案してくれる。実はこれってジェンダーバイアスですよね。ステレオタイプを増強してしまいます。それを避けようと性別を聞かないアプローチにすると、その子は青色が好きですか、赤色が好きですかとか、室内遊びが好きですか、屋外遊びが好きですかとか、そういう回りくどい聞き方をしていって、結局最後はサッカーボールにたどり着くかもしれないけど、ユーザーからすれば「回りくどいな、ダイレクトに聞いてよ」と思うかもしれません。
桐原 人間同士のコミュニケーションでは意識されないことも、AI相手になるとクローズアップされてしまう難しさがあります。
岸本 そうなんです。我々がAIに何を求めているか問われてしまうんですね。まったくバイアスがないようにすると、すごく使い勝手が悪くなる可能性はあります。かといって、いきなりジェンダーを聞いてくるのもいかがなものかと思います。
桐原 ChatGPTも含めて世間一般の人たちが、AIが人間っぽくなったなと感じている裏側にあるのは、人間が持っている曖昧な部分もAIが如実に反映してしまっているからでしょうね。この先、バイアスや差別をとりのぞいて倫理的なAIを開発すると、今度はどんどん人間らしさから離れていくという気がしてきます。倫理的じゃないほうが人間的という皮肉を感じます。
岸本 今まで顔認証技術なんかも、われわれ一般人は分析される側でした。データ処理される側だったんです。だから個人の権利を守らなければいけないみたいな論調でしたが、生成AIが出てきたことで、自分たちが使う側、使って発信する側に回ってしまいました。その典型がChatGPTで、自分たちがむしろステレオタイプ、バイアスを広める側になるかもしれない。そういうときにどんなルールを課せばいいのかというのは、考え直したほうがいい気がします。