東京大学大学院准教授 馬場雪乃氏に聞く
(2) AIを介してアップデートするコミュニケーション
AIとのパートナーシップをデザインすることで、これまで困難だった人と人とのコミュニケーションを導くことができる。馬場雪乃氏へのインタビュー第2回では、高校生1年生を対象に行なった実証実験をはじめ、示唆に富んだ事例がいくつも紹介された。
馬場 雪乃(ばば ゆきの)
東京大学大学院総合文化研究科広域科学専攻准教授。東京大学大学院情報理工学系研究科創造情報学専攻博士課程修了。情報理工学博士(東京大学)。国立情報学研究所特任研究員、京都大学大学院情報学研究科助教、筑波大学システム情報系准教授などを経て2022年より現職。人工知能学会理事・代議員。人工知能、人とAIの協働、集合知、クラウドソーシングの研究に従事。人間の正確な判断をAIに取り入れる機械学習技術を多数開発。JSTムーンショット型研究開発プロジェクトにおいて、人間と協働して研究を行うパートナーAIの開発を推進する。2024年IPSJ/IEEE Computer Society Young Computer Researcher Award受賞。共著書に『データサイエンティスト養成読本 機械学習入門編』(技術評論社)『ヒューマンコンピュテーションとクラウドソーシング』(講談社)がある。
目次
Iからの順伝播による人のバイアスクレンジング
都築正明(以下――) 今年発表された、機械学習を用いてバイアスクレンジングを行うツールについて教えてください。
馬場雪乃氏(以下、馬場) たとえば日本人のアパートのオーナーが黒人の方には家を貸したがらないというように、人が人物評価をする際には人種や性別にかんしてバイアスがかかってしまいます。私たち研究者が予算申請書の評価をするときにもダイバーシティに配慮するよういわれますが、どのように判断基準を調整したらよいのか、わかりづらいという現状があります。そこで、人の判断をどのように変えれば公正になるのかをAIが教えてあげるツールを開発しました。
AIの内部にバイアスがあったり、私たちのバイアスをAIが可視化したりすることがよくいわれますが、それを人間にフィードバックすることで、どうすればよいかを示唆してくれるということでしょうか。
馬場 はい。たしかにAIの内部にはバイアスがありますが、モデルに少し手を加えることで、人間よりもずっと簡単にバイアスを減らすことができます。このようにAIのバイアスを減らすことで、教師として人間の判断を助けてあげるスキームになっています。
昨年、GoogleやX(旧Twitter)でアルゴリズム・バイアスを指摘した研究者が解雇される事案が相次ぎましたが、そうした構図を変えられる技術でもありますね。
馬場 ツールをつくるにあたっては、そうした状況が改善することを期待していました。ただし、人が意思決定をするかぎり、このツールを実用化することで、すぐに人々のバイアスが減るというわけにはいきません。
先生は、集団の選好に基づいた意思決定を支援するCrowDEAというツールも開発されていますよね。
馬場 開発にあたって考えていたのは、たとえば団体やイベントのキャラクターデザインを決めるにあたって100個や1000個とたくさんのアイデアが出てきたような状況です。一般的には多数決で決めたり、投票のうえで得票数上位の数案に絞って議論して決めたりします。そうすると多数派がよいと思うものだけが最終的な候補に残ってしまい、もとの100個や1000個のアイデアのなかにあった多様性が失われてしまうということに疑問を持ちました。私たちが開発したCrowDEAでは、投票するまでは同じですが、意見集約にあたっては単純な多数決ではなく、推定した異なる価値観に応じたものを選ぶことができます。たとえばAという価値観とBという異なる価値観があった場合には、Aの価値観で最良のものと、Bの価値観で最良のものを提示するわけです。ですから、特定の多数派だけがよいと思うものでなく、価値観のばらつきに配慮したうえでよいと思うものを選ぶことができます。
大規模なイベントのキャラクター選びでは、自分がよいものではなく、みんながよいと思うであろう最大公約数的なものに投票して、つまらないものばかりが残ってしまうことがあります。その結果、つまらない最終候補のなかからマシだと思うものを選ぶことになってしまったり。
馬場 そうですね。
桐原永叔(以下、桐原) ケインズのいう美人投票のようですね。株式には、みんなが上がると思うものが上がるという自己言及性がありますよね。ChatGPTが自己言及的に意見を生成してしまうともっとらしいだけのアウトプットが人々の総意となって、個々の価値観が均されてしまう可能性もありますよね。
馬場 おっしゃる通り、私たちの価値観が汚染されていくことが心配です。私たちは、どうしても楽なほうに流されていきますから。耳障りがよくて、もっともらしいことをGPT-4が言ってくれると、それでよしとしてしまう。 そこで考えることをやめてしまう傾向は、今後より進んでいくことが危惧されます。
桐原 考えたり悩んだりすることが好きな人は多くないですし、ほかの人がどう思うのかを気にしてしまう。
馬場 まったくその通りですね。選択肢を提示されると、みんながどう言っているのかを気にしてしまう。キャラクターデザインの場合は多くの人に気に入られることも重要ですから最大公約数的なものを選ぶのも仕方ないと思いますが、1人で外食するときに、自分が食べたいものではなく、SNSで多くの「いいね」がもらえるものを選ぶような傾向は、今後どんどん進んでくのではないかと思います。
関連記事
-
REVIEW2025.02.27シンギュラリティはより近くなっているのか
第3回 コンピュータ・サイエンスと行動経済学2025.02.27著者 都築 正明 -
REPORT2025.02.13少子高齢化時代の労働力不足を救う、次世代産業用ロボットの革新
第3回 製造業におけるロボティクスの応用──協働ロボットが変える生産現場の未来2025.02.13寄稿者 吉田メグミ -
REVIEW2024.11.12ノーベル賞とテクノロジーの経済を巡る省察 第2回 AI、情報科学、そして「ユートピア」への緩慢な歩み
日本人研究者の基礎理論でもっとも利益を得た者2024.11.12テキスト 桐原 永叔