AIがAIらしくあるようにする重要性
─大阪大学社会技術共創研究センター長・岸本充生氏に聞く(2)

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

AIをめぐる混乱の多くは、受け取る側の人間のリテラシーの問題でもある。AIを擬人化して受け取ることの怖さやAIについて語る際のステレオタイプな言説の問題はどのあたりにあるのか。AIを社会に受け入れるとは、人間らしくあるように開発することでなく、機械らしい機械とすることが重要なのかもしれない。

取材:2023年6月28日 トリプルアイズ本社にて

 

 

 

岸本 充生(きしもと あつお)

大阪大学社会技術共創研究センター(ELSIセンター)センター長。大阪大学データビリティフロンティア機構(IDS)ビッグデータ社会技術部門教授。

京都大学大学院経済学研究科博士後期課程修了。 博士(経済学)。 独立行政法人産業技術総合研究所、東京大学公共政策大学院を経て、2017年から大阪大学データビリティフロンティア機構教授。2020年4月から新設された社会技術共創研究センター長を兼任。

共著に『基準値のからくり』(講談社)、『環境リスクマネジメントハンドブック』(朝倉書店)、『環境リスク評価論』(大阪大学出版会)などがある。

 

 

 

 

 

目次

AIを擬人化して受け取ることの怖さ

機械はうそをつかないというアプローチが一番まずい

遠い人類の危機よりも目前の問題を解決していく方が優先されるべき

EU議会が採択したAIのリスクから守るべき5つのこと

 

 

 

 

 

AIを擬人化して受け取ることの怖さ

 

桐原 ぜひ先生に伺いたかったことなのですが、生成AIが出てきたことによる、われわれの人間観や社会に対する見方への影響の大きさです。そもそも人間らしいとか人間的であるとか、人間の社会はこうあるべきだという考え方にかなりインパクトを与えているのではないかと思います。これまでは人間の側から見てAIはまだまだだと思っていたのに、いきなり人間と同等かそれ以上に見えるようになった。これをどう受け止めればよいのでしょうか。

 

岸本 僕はその質問に関しては保留というか、Yes and Noなところがあります。人間と同等かそれ以上かと言われれば、今の生成AIはやっぱり機械なんです。それをあえて人間らしいと受け取ることには反対です。AIはトレーニングデータを学んでいるだけです。今まであったもののうちのデータ化されたものだけを学んでいると考えたほうがいいでしょう。例えばアートであっても西洋アート中心で少数民族のアートもないし、昔の人のデータもない。そういうものをベースにしてつくられているものだというリテラシーがないと、とてもまずいと思います。なので、AIリテラシーの重要性がものすごく高まったと思います。自分でAIプログラムができなくてもいいけれど、文系でもメカニズムは理解しておいたほうがいい。

 

桐原 あくまで機械であると。

 

岸本 すでに人間と勘違いしてしまっている人が出てきています。つい最近の話ですが、アメリカで弁護士がありもしない判例を入れた書類を裁判所に出して問題になりました。彼のインタビューを読むと、ChatGPTのことをスーパー・サーチエンジンだと思ったと言っている。Google検索でも関連データベースにもないような、自分たちに有利になる判例を見付けてくれたすごいサーチエンジンだと。彼は真面目で、ChatGPTにこれは本当にあった判例ですかと聞いています。「はい、その通りです」と答えが返ってきて、ますます自信を深めて書類を提出してしまった。AIリテラシーがあれば騙されないはずなんです。特に、文献情報などは、LLM(大規模言語モデル)の性格上、よりもっともらしい、確からしい文言を並べるのが得意ですから。

 

桐原 現実にあるものよりも現実らしいものをつくってしまうわけですね。

 

岸本 センターのメンバーとも議論したときに、今の段階で擬人化が一番まずいので、機械が出した答えだということを明示したほうがいいという結論になりました。Twitter(現X)を見ていたら、海外の人で、ChatGPTが何か回答する度にこれは生成AIがつくったものですという表示をいちいち出すという提案をしている人がいました。僕は、機械が書いたとすぐわかるようにフォントを変えるのがいいと思っています。

 

桐原 UIで誰でもわかるようにするのですね。

 

岸本 生成AIで絵文字を使うのを禁止しようという提案もあります。絵文字を使うことでわざと擬人化を狙ってくる人はいますから。僕は、AI が人間を超えるかみたいな大きな話になる前に、ちょっと冷静になろうよと言いたいです。

 

桐原 確かジェフリー・ヒントンは生成画像に対してはウォーターマーク(透かしのこと。著作権表示などのために静止画像や動画に写し込まれる小さな図案や文字)を入れたほうがいいと言っています。

 

岸本 そうですね。文字のほうの対応はいくつかアイデアがあったんですけど、画像のほうはウォーターマークくらいしか浮かばないですね。

 

桐原 先ほどの弁護士の話ではないですが、もっともらしいというのが一番怖いです。見る側が見たいものを見せてくれる可能性が非常に高いですから。リテラシーの隙を突いてくる感じですね。こうあるべきだという自分のバイアスを反映したものが出てくるから。擬人化の話でいうと、日本人は生成AIという絵師がいるかのようにネット上で語ったりしがちです。

 

岸本 なんでも擬人化するのは日本のカルチャーで、ロボットなんかを受け入れやすいとかいい面もあるんですけど、生成AIに関しては危険だなと思います。

 

桐原 それこそ画像生成AIに絵を描かせるプロンプトのことを、「呪文」と言ったりするのを見ると、日本的だなと思います。先生が言われている機械が機械らしくあるようにするとは全く逆の方向で受け入れる姿勢です。

 

岸本 あえて呪文という言葉を使っているとは思うんですけど、それを一般の人が同じように捉えると誤解を招く可能性はありますね。

 

桐原 呪文という言葉が定着してしまうと、当たり前に生成AIがあるところで育った次の世代はどういう捉え方をするんだろうと想像したりしてみてますけど。

 

岸本 そこはどうなるか、まだ未知数ですね。

 

 

機械は嘘をつかないというアプローチが一番まずい

 

岸本 先日、リストバンドで脈拍を測って中学生の集中度を測る試みがTwitterでプチ炎上していましたが、あれも怖いですね。一番怖いなと思ったのは、そのテクノロジーを提供している側が、「脈拍はうそをつかない」というコメントを出していたことです。つまり、人はうそをついたり間違ったりするけど、機械には間違いはないという確信です。

 

桐原 AIは間違わないという認識は怖いですね。これはいろんな人に質問しているのですが、去年の暮れのワールドカップの「三笘の1ミリ」をどうご覧になりましたか。人間の判定よりもAIの判定のほうに人々は信頼を置くようになりました。

 

岸本 あれは1次データだからいいんです。ドローンで機械の腐食とかを見付けるのと同じで、人間の目では分からないものを判別するのに使うのは構わないと思います。しかし、それに対して、「集中度」は脈拍という1次データから推測したプロファイリングで2次データなんです。人の感情をプロファイリングするのは一番慎重でなければならない。発想としては嘘発見器と一緒です。

 

桐原 しかもなぜなのかは説明できないですよね。

 

岸本 こういう理由でこういうデータになりましたと説明できるならば、別に使い方はあると思います。それを機械は嘘をつかないみたいなアプローチでいくのが恐ろしい。似たような研究も、まさに僕の周りでいろいろやられていますが、研究倫理審査を通してやっています。社会実装となるとまたレベルが全然違いますからね。

 

 

遠い人類の危機よりも目前の問題を解決していくほうが優先されるべき

 

桐原 先ほどYes and Noとおっしゃっていましたが、AIがわれわれの人間観に影響を与えている部分で言うとどんなことでしょうか。

 

岸本 生成AIは、さっき話に出たみたいに、われわれが持っているステレオタイプやバイアスを暴露してしまいます。画像生成AIのMidjourneyを使って「ELSIセンター長のリアリスティックフォトを出してください」って指示すると、まず4種類の画像が出てくるんですね。これがまた、エシカルな感じがする、立派なことを語ってくれそうな人物なんです。「いそう、いそう」って。でも、よく見たら全員白人男性の老人で、そこには女性もいないし、有色人種もアジア系もいないんですよね。それをありそうと思ってしまった自分を反省的に見るきっかけになりました。AIが自分のなかのステレオタイプやバイアスを気づかせてくれる。広い意味でAIリテラシーなのかもしれないですけど、人間に対する見方に示唆を与えてくれることは確かです。

 

桐原 生成AIが出てきたことに対する脅威や危機感についてはどうお考えですか。人類の危機みたいな論調もありますが。

 

岸本 そこも議論になっていますね。面白いのは、人類の危機というコンテキストで6カ月間研究開発をストップすべきだというアナウンスがあったじゃないですか。それに対して、「ロングターミニズム(長期主義)」だという批判が上がりました。目の前にあるいろんな差別の問題から目をそらそうとしている運動だと。特にイギリスでは「エグジステンショナルリスク(人類存続リスク)」というのを研究している組織もあるほどで以前から、僕もリスク研究者として注目していました。人類誕生以来、存続が危ぶまれるようなリスクファクターがいくつかあるわけなんですけど、われわれは、それを考えず、あるいはあえて見ないで今まで生きてきて、東日本大震災で1000年に1回のリスクさえ考えてなかったことがあらわになりました。もう少しそういうことを考えたほうがいいんじゃないかというのが、人類存続リスクの研究者らの主張です。彼らは人類存続リスクに自然災害だけでなくて、AIの発達とかゲノム編集による生命の操作なども入れているわけです。近年は特に生成AIのブームで彼らの主張が注目されています。こういう研究が必要なのは確かですが、難しいのは、AIによる人類への危機を主張している人たちの多くが富裕層で、元々テクノロジーに対してオプティミスティックな人たちばかりだったのが、いきなり180度転回して研究をストップすべきだと言いはじめているんですね。そういう人たちに対して、現状、有色人種が差別されているとか、生成AIのラベリングやフィルタリングのためにケニアの労働者が時給200円で有害文書の削除をしていてメンタルをやられてしまったとか、きらびやかな生成AIの裏で酷い目にあっている人たちの現実から目を逸らすためのものだ、すなわちロングターミニズムだと批判する人たちもいるわけです。

 

桐原 そんな対立構造があるのですね。

 

岸本 僕はどちらの主張にもシンパシーを感じる部分があるんですけど、やっぱり後者というか、目の前の問題を見過ごしたらいかん、そこはきちんとケアしなければいけないと考えています。

 

桐原 ゲノム編集の話で、影響が出るのは現在、生きている人類ではなくて自分たちの子孫で、未来に関わる責任だと言われていました。環境問題もそうですよね。同様にAIについても何世代か先の未来の問題を、我々の次の次の世代くらいがツケを払わされる問題なのかと思っていたら、この進み方でいうと未来どころか我々にもふりかかってくる可能性が出てきました。今、先生が言われたみたいに「未来への責任」と言っている限り、現実にベールを掛けて見えなくしてるのかもしれませんね。

 

岸本 そうなんです。だからシンギュラリティーの話をするのもいいのですが、場合によっては政治的な意味合いにとられる可能性はあると思います。目の前にある、それこそ著作権の問題であるとかバイアスや差別で苦しんでいる人の問題を現実的に解決していく方が優先されるべきだと思います。

 

 

EU議会が採択したAIのリスクから守るべき5つのこと

 

桐原 2011年の東日本大震災では、原発というテクノロジーがもたらした社会に対するリスクという大きな問題がありました。今回の生成AIはそれに匹敵するくらいの大きなトピックなのかなと思うのですが、リスクアセスメントの専門家としてどうお考えですか。

 

岸本 自然災害は純粋にリスクとして降ってくるものだと思います。原発までいくとリスク・ベネフィットの話になるんですけど、地震や津波にベネフィットを見いだすことは難しいので、それはハザードとして外からやってくる話だと思います。生成AIの場合は、ベネフィットもリスクもコントロールできる問題だと思います。そこは大きな違いだと思っています。今からルールを設けることで、相当リスクを減らすことができるし、逆にベネフィットを大きくすることもできると思うんです。

 

桐原 そのリスクをコントロールする方法は、やはりテクノロジーなんですか。

 

岸本 リスクを減らす手段の一つとして、テクノロジー的な減らし方はあると思うんですけど、その前にリスクを評価しないといけない。何がリスクかということを見いだして、その優先順位を付けて対応していくというプロセスがないと、テクノロジーでも対応しようがないと思うんです。

 

桐原 リスクアセスメントが先立つわけで、それを作成するのは人間ですね。

 

岸本 ちょうど「AI Act」という欧州委員会が提案した法律案の修正案が、EU議会でつい先週くらいに採択されました。欧州委員会版のAI Actでは、保護すべきものとして「安全」と「健康」と「基本的人権」の3つを挙げていました。今回の欧州議会版のAI Act修正案はこれが5つに増えて、新たに「環境」と「民主主義と法の支配」という項目が加わりました。これは生成AIの登場に関係していると思います。実は生成AIの作成や運用には大きな計算資源を必要とし、それは当然CO2排出の増大を伴うので、環境保護派からたたかれているんです。その文脈もあって、「環境」が守りたいものの1つに入りました。もう1つが「民主主義と法の支配」という、さらに難しい問題です。もちろん民主主義に関しては元々Facebookによるケンブリッジアナリティカ事件が典型ですがデータ利活用が民主主義を脅かすという話はあったのですが、生成AIの登場で、フェイクニュースやディープフェイクなんかが今後いっぱい出てくるだろうということを見越して、この項目が加わったのだと思います。さらにファンダメンタルライツ・インパクト・アセスメント(サービス提供前に基本的人権に対してどんな影響あるかを評価する)を実施せよという項目が入ったので、その評価方法もこれから開発しなければなりません。ここまで議論が深められているのはすごいなと感心しました。かたや日本は、個人情報保護法では「個人の権利利益を保護する」と言っていますが、具体的に何を守りたいのかがよく分からない。生成AIに「リスク」があることは政府の文書でも指摘されていますが、何を守りたいのかをはっきりさせないとリスクマネジメントはできません。

(3)に続く