大阪大学社会技術共創研究センター長・岸本充生氏に聞く
(2)AIがAIらしくあるようにする重要性

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

議会が採択したAIのリスクから守るべき5つのこと

桐原 2011年の東日本大震災では、原発というテクノロジーがもたらした社会に対するリスクという大きな問題がありました。今回の生成AIはそれに匹敵するくらいの大きなトピックなのかなと思うのですが、リスクアセスメントの専門家としてどうお考えですか。

岸本 自然災害は純粋にリスクとして降ってくるものだと思います。原発までいくとリスク・ベネフィットの話になるんですけど、地震や津波にベネフィットを見いだすことは難しいので、それはハザードとして外からやってくる話だと思います。生成AIの場合は、ベネフィットもリスクもコントロールできる問題だと思います。そこは大きな違いだと思っています。今からルールを設けることで、相当リスクを減らすことができるし、逆にベネフィットを大きくすることもできると思うんです。

桐原 そのリスクをコントロールする方法は、やはりテクノロジーなんですか。

岸本 リスクを減らす手段の一つとして、テクノロジー的な減らし方はあると思うんですけど、その前にリスクを評価しないといけない。何がリスクかということを見いだして、その優先順位を付けて対応していくというプロセスがないと、テクノロジーでも対応しようがないと思うんです。

桐原 リスクアセスメントが先立つわけで、それを作成するのは人間ですね。

岸本 ちょうど「AI Act」という欧州委員会が提案した法律案の修正案が、EU議会でつい先週くらいに採択されました。欧州委員会版のAI Actでは、保護すべきものとして「安全」と「健康」と「基本的人権」の3つを挙げていました。今回の欧州議会版のAI Act修正案はこれが5つに増えて、新たに「環境」と「民主主義と法の支配」という項目が加わりました。これは生成AIの登場に関係していると思います。実は生成AIの作成や運用には大きな計算資源を必要とし、それは当然CO2排出の増大を伴うので、環境保護派からたたかれているんです。その文脈もあって、「環境」が守りたいものの1つに入りました。もう1つが「民主主義と法の支配」という、さらに難しい問題です。もちろん民主主義に関しては元々Facebookによるケンブリッジアナリティカ事件が典型ですがデータ利活用が民主主義を脅かすという話はあったのですが、生成AIの登場で、フェイクニュースやディープフェイクなんかが今後いっぱい出てくるだろうということを見越して、この項目が加わったのだと思います。さらにファンダメンタルライツ・インパクト・アセスメント(サービス提供前に基本的人権に対してどんな影響あるかを評価する)を実施せよという項目が入ったので、その評価方法もこれから開発しなければなりません。ここまで議論が深められているのはすごいなと感心しました。かたや日本は、個人情報保護法では「個人の権利利益を保護する」と言っていますが、具体的に何を守りたいのかがよく分からない。生成AIに「リスク」があることは政府の文書でも指摘されていますが、何を守りたいのかをはっきりさせないとリスクマネジメントはできません。

1 2 3 4