大阪大学社会技術共創研究センター長・岸本充生氏に聞く
(2)AIがAIらしくあるようにする重要性

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

遠い人類の危機よりも目前の問題を解決していくほうが優先されるべき

桐原 先ほどYes and Noとおっしゃっていましたが、AIがわれわれの人間観に影響を与えている部分で言うとどんなことでしょうか。

岸本 生成AIは、さっき話に出たみたいに、われわれが持っているステレオタイプやバイアスを暴露してしまいます。画像生成AIのMidjourneyを使って「ELSIセンター長のリアリスティックフォトを出してください」って指示すると、まず4種類の画像が出てくるんですね。これがまた、エシカルな感じがする、立派なことを語ってくれそうな人物なんです。「いそう、いそう」って。でも、よく見たら全員白人男性の老人で、そこには女性もいないし、有色人種もアジア系もいないんですよね。それをありそうと思ってしまった自分を反省的に見るきっかけになりました。AIが自分のなかのステレオタイプやバイアスを気づかせてくれる。広い意味でAIリテラシーなのかもしれないですけど、人間に対する見方に示唆を与えてくれることは確かです。

桐原 生成AIが出てきたことに対する脅威や危機感についてはどうお考えですか。人類の危機みたいな論調もありますが。

岸本 そこも議論になっていますね。面白いのは、人類の危機というコンテキストで6カ月間研究開発をストップすべきだというアナウンスがあったじゃないですか。それに対して、「ロングターミニズム(長期主義)」だという批判が上がりました。目の前にあるいろんな差別の問題から目をそらそうとしている運動だと。特にイギリスでは「エグジステンショナルリスク(人類存続リスク)」というのを研究している組織もあるほどで以前から、僕もリスク研究者として注目していました。人類誕生以来、存続が危ぶまれるようなリスクファクターがいくつかあるわけなんですけど、われわれは、それを考えず、あるいはあえて見ないで今まで生きてきて、東日本大震災で1000年に1回のリスクさえ考えてなかったことがあらわになりました。もう少しそういうことを考えたほうがいいんじゃないかというのが、人類存続リスクの研究者らの主張です。彼らは人類存続リスクに自然災害だけでなくて、AIの発達とかゲノム編集による生命の操作なども入れているわけです。近年は特に生成AIのブームで彼らの主張が注目されています。こういう研究が必要なのは確かですが、難しいのは、AIによる人類への危機を主張している人たちの多くが富裕層で、元々テクノロジーに対してオプティミスティックな人たちばかりだったのが、いきなり180度転回して研究をストップすべきだと言いはじめているんですね。そういう人たちに対して、現状、有色人種が差別されているとか、生成AIのラベリングやフィルタリングのためにケニアの労働者が時給200円で有害文書の削除をしていてメンタルをやられてしまったとか、きらびやかな生成AIの裏で酷い目にあっている人たちの現実から目を逸らすためのものだ、すなわちロングターミニズムだと批判する人たちもいるわけです。

桐原 そんな対立構造があるのですね。

岸本 僕はどちらの主張にもシンパシーを感じる部分があるんですけど、やっぱり後者というか、目の前の問題を見過ごしたらいかん、そこはきちんとケアしなければいけないと考えています。

桐原 ゲノム編集の話で、影響が出るのは現在、生きている人類ではなくて自分たちの子孫で、未来に関わる責任だと言われていました。環境問題もそうですよね。同様にAIについても何世代か先の未来の問題を、我々の次の次の世代くらいがツケを払わされる問題なのかと思っていたら、この進み方でいうと未来どころか我々にもふりかかってくる可能性が出てきました。今、先生が言われたみたいに「未来への責任」と言っている限り、現実にベールを掛けて見えなくしてるのかもしれませんね。

岸本 そうなんです。だからシンギュラリティーの話をするのもいいのですが、場合によっては政治的な意味合いにとられる可能性はあると思います。目の前にある、それこそ著作権の問題であるとかバイアスや差別で苦しんでいる人の問題を現実的に解決していく方が優先されるべきだと思います。

1 2 3 4