アーティスト・慶應義塾大学准教授・長谷川愛氏に聞く
(3)テクノロジーを手に未来の社会・文化をデザインする

FEATUREおすすめ
聞き手 都築 正明
IT批評編集部

テクノロジーにおけるポリティカル・コレクトネスと倫理

ChatGPTは、真面目すぎて会話に疲れることがあります。なにかの文脈で「死にたい」と打ち込むと「その話はしたくありません」と拒絶される。「どうして?」と重ねて質問すると、WHOのガイドラインのようなものを列挙して、お説教をされてしまいます。

長谷川 逆にいうと、どのような言葉で表現すれば炎上しないかというガイドとしては、とても役立ちますよね。私の場合は大学の准教授という立場上、そういったことに過敏にならざるを得ないこともありますから。いま慶應義塾大学の機械科で教えているのですが、映画を鑑賞させるにあたってもセクハラにあたらないかとビクビクしていますよ。「ブレードランナー」のラブシーンでも「レイチェルは未成年ではないのか? レプリカントならOKなのか?」ということが気になったりしますし、「時計じかけのオレンジ」の暴行シーンは上映して大丈夫だろうか? と不安になったりもします。

そうした作品は、アートやデザインの授業で鑑賞しているのでしょうか。

長谷川 これは授業外でやっていることなんですが、彼らが「攻殻機動隊」を知らないことに衝撃を受けて、とりいそぎSFの名作映画を見せなければならないと思いました。先日は改めて「2001年宇宙の旅」を観たのですが「HAL9000」とChatGPTを比較できたり、人類の進化について改めて議論ができたりして楽しかったです。

映像作品のレーティングが細分化される一方、昨年はtwitter社でAIの倫理や透明性について研究していたチームが解雇されたほか、Google社では自然言語処理の倫理的リスクについて論文に著した研究者が解雇されたり、ジェフリー・ヒントンがAIの未来について懸念を表明するために退社したりという動きが目立ちました。

長谷川 そうしたバックラッシュがこれからさらに起こるであろうことが、とても心配です。

現在は、どういったことに関心を持たれていますか。

長谷川 自由意思について関心があります。それはテクノロジーにどこまで委ねられるのだろうという積極的な意味においてです。ChatGPTの例でいうと、正しいことを生成してくれて失言を防げるのであれば、私としては嬉しいわけです。同様に、生きることに切実な困難を持つ人にとって、いまよりも役に立つ使い方があるはずです。社会的な困難さに対峙することを自動化できれば、生きづらさを抱えている人を、もっと楽にしてあげることができます。そこで緩和されたその人の能力を、よりよい方向に使うことができるのではないかと思います。

たとえば、就職活動のエントリーシートをAIで生成することについては否定的な声が多く挙がっています。しかし、自己分析や自己PRを器用に“盛る”ことが得意でないのなら、使ってしまったほうがよいわけですよね。

長谷川 私自身は特に勉強ができたわけでもありませんし、少し“コミュ障”気味なのにアートでキャリアを積んでこられたので、運がよかったとしか思えないんです。だからこそ、運が悪かった場合の自分や、実際にそういう状態にある人のことも想像できます。そこでテクノロジーが助けてくれたり力になってくれたりすることは、たくさんあるだろうと思います。

1 2 3