東京大学大学院准教授 馬場雪乃氏に聞く
(2) AIを介してアップデートするコミュニケーション
人とAIとの関係と、人と人との関係
ヒューマン・イン・ザ・ループ(Human-in-the-Loop)の研究では、GAN(Generative adversarial networks:敵対的生成ネットワーク)に人を介在させるシステムも開発されていますよね。
馬場 HumanGANとHumanACGANですね。GANは画像の生成などに用いられるモデルで、内部的には画像を生成する生成器(Generator)と、その画像が本物かどうかをこう識別する識別器(Discriminator)の2者がせめぎ合いながら生成能力を鍛えていきます。この方式では、データ空間の中でよりよい生成モデルを探索するだけになってしまいますので、そこに人の知見を入れるようにしました。識別器が自然だと判断するレベルと人が自然だと判断するレベルとは異なりますから、人がどういう画像を自然だと感じるのかという知覚を入れてあげたほうがよいだろうと考え、生成器と戦わせる識別器を人に置き換える技術になっています。
そうすると、生成器が人間と戦う構図になるわけですね。
馬場 そうです。人間が騙されるほどのものができれば、そこがゴールになります。私たちがこれを開発したのは2020年で、人の発話を対象に実験を行いました。先日リリースされたGPT-4oでは、こうしたツールを用いずに自然な音声をつくるところまできています。やはり生成AIにおいてはデータ量がものをいうことですね。
このノウハウを生かせば、聴覚のほかにもサポートすることができるわけですよね。
馬場 そうです。ChatGPTでは自然言語処理においてはRLHF(Reinforcement Learning from Human Feedback:人間からのフィードバックを用いた強化学習)というテクノロジーを用いて、GPTからの出力を見せながら人間が好むものにチューニングしていますが、発想としてはHumanGANと同じです。
クラウドソーシングでは、低単価でプログラムや記事の作成を依頼することも多くありますが、今後は心理的負担の大きな作業を委託することも懸念されます。OpenAIが不適切なコンテンツのモデュレーションを2ドル以下の時給でケニアに発注していた事例もありますし、Metaは社内のコンテンツ・モデュレーターが深刻なPTSDや抑うつ症状に苦しんでいることが報じられて行政指導を受けると、アクセンチュアに外注するようになりました。クラウドワーカーにそうした仕事を依頼することで、責任を希薄化することは十分考えられます。
馬場 AIはそうしたクラウドワーカーの力を使って賢くなっていきます。AIがここまで世の中に浸透すると、AIの性能が向上する利益を享受する人たちはとても多いわけです。すると、大多数の利益にたいして少数の人が負担を強いられるのは、税金のようなもので仕方がないという発想になりかねません。私はそれを、かなり恐ろしい考えだと思います。
かつてテッド・チャンが「AIにはブルシット・ジョブをさせておけばよい」と言っていましたが、正反対のことが起こり得るということですね。むしろAIを支えるために人間がブルシット・ジョブを負わなければならない。
馬場 そうですね。ちょっと不愉快な画像の判別などは、もう全ユーザーで行ったほうがよいかと思います。AIをよくするためのブルシット・ジョブはAIユーザーで平等に分散させて、コストを均等に配分する。
「私はロボットではありません」というチェックをするreCAPTCHAで、OCRで読めないテキストの学習や画像のタグづけに貢献することに近いですね。
馬場 そうですね。書籍の電子化のメリットを享受するためのお手伝いをするように、記事を読みたかったりWebサービスをつかったりしたければ、少し嫌な画像をみてもらうようなことがあってもよいと思います。できるだけ人々の幸福を損なわずに、AIの支えになる膨大なゴーストワークを人に任せていく方法については、社会的にきちんと考えなければならないと思います。