第4次AIブームを切り拓くXAIとCAI
国立研究開発法人産業技術総合研究所 人工知能研究センター長 辻井潤一氏に聞く(3)

第4次のAIブームでは、むしろディープラーニング以前の技術が見直されるだろうという。AIの歴史を体感してきた辻井氏ならではの見解だ。人間の知見を組み込んだXAIが、AIの社会実装が進むための大きなヒントになるだろう。

辻井 潤一(つじい じゅんいち)
情報科学者。国立研究開発法人産業技術総合研究所人工知能研究センター長。
1973年京都大学大学院修了。工学博士。京都大学助教授、1988年マンチェスター大学教授、1995年東京大学大学院教授、2011年マイクロソフト研究所アジア(北京)首席研究員等を経て現職。マンチェスター大学教授兼任。
計算言語学会(ACL)、国際機械翻訳協会(IAMT)、アジア言語処理学会連(AFNLP)、言語処理学会などの会長を歴任、2015年より国際計算言語学委員会(ICCL)会長。
紫綬褒章、情報処理学会功績賞、船井業績賞、大川賞、AMT(国際機械翻訳協会)栄誉賞、ACL Lifetime Achievement Award、瑞宝中綬章等、受賞多数。
目次
AIと人間がお互いの判断の根拠を吟味し合えるようなかたちをつくっていく
桐原 医療の世界では人間の知見とAIが協働していると聞きます。
辻井 医療の場合は典型的ですね。確かにお医者さんが、気がつかないある種の特徴が患者さんのデータにあって、それをAIが見つけ出して正しい診断をする可能性はあるわけです。逆にそういうデータのなかに、たまたま現れた、病疾患の発現機構とは全く関係のない特徴に反応してしまって、他の患者さんにそれを適用して間違った結果を出している可能性もあります。データだけを見ていると2つの可能性があって、1つは僕らの医学で理解できない特徴がやはりあって、それをAI側が捉えていて正しい結論を出している可能性です。もう1つは、病気のメカニズムから考えると特徴としては使ってはいけない、たまたまデータのなかに現れた本質的でない特徴に診断が左右されていて誤診断につながる可能性です。それがブラックボックスになったAIでは僕らには分からない。それが広い意味での「データバイアス」という話で、本来の機構からすると出てはいけないある種の規則性がデータのなかには含まれている可能性もあるわけです。XAIは説明可能AIと呼ばれていますが、単に説明するだけではなく何を見て判断したのかをお医者さんに教えてあげることによって、お医者さんのほうも新しい医学の知識をつくることができるかもしれないし、それは使ってはいけないデータだよとAIに教えることができるかもしれない。人間とAIの異なる2つの知能を近づけることでAIの性能を上げることができるし、人間の知見が深まり科学も進んでいく可能性もあります。XAIという言葉を使うとすぐに「説明」とは何かという問題が前に出てしまいますが、僕らが考えているのはもう少しAIと人間が緊密にお互いの判断の根拠を吟味し合えるような、透明性を上げたAIのかたちをつくっていく必要があるんじゃないかということです。
桐原 データの話題が出るとよく言われることですが、データで株式市場を予測しましょうという試みも何度も繰り返してきましたが、必ず失敗します。株式市場が自己言及的になっていて自分たちの判断がデータのなかに織り込まれるので、どんどんデータそのものが変質していくことが起きるわけですね。先生が言われている理解不能なAIも、AI自体がつくりだしたデータがAIそのものを変化させていくという意味合いもありますよね?
辻井 それはありますね。判断する側と判断される側が離れている、主体と客体として完全に離れているときはいいんですけど、社会現象の多くは判断主体も社会のなかに組み込まれていて、お互いに影響を及ぼし合う構造になっています。そういう問題はまたもう一段難しくなってきますね。経済現象というのはまさにそういう構造になっているんだろうと思います。もともと複雑な判断というのは説明しにくい話なんです。同じデータを見ていても違った判断になるということはいくらでもあるわけです。だから「説明できない」というのは、必ずしもAIの持っている欠陥ではなく、ひょっとすると複雑な判断というのは本来的にそういう性質を持っているんだと思います。いろんなファクターが複雑に絡み合っていて、それをどういうふうに判断するかというのは判断主体の価値観にもかかわる話でもあり、AIだけがうまくできないのではなく人間の場合もうまくいかないわけです。僕らでも、何かある複雑な判断をしたときに、この判断の根拠を説明してくださいといわれると、どんなに説明しても説明しきれないようなケースはいくらでもあるわけです。ただAIと人間が違うのは2つの違う判断をした主体があったときに、人間同士の場合には、それぞれの判断過程を部分的にでも外化して相互に吟味し合うことができるところです。僕はこういうところを見てこういう判断をしたという根拠を相手に言って、相手はそれに対してまた違う根拠を見せる。おそらく、複雑な判断というのは、いろんな根拠がある重みづけをもってホリスティックに決まってくるのだと思うのですが、そこを系統立てて説明するのは非常に難しい。説明不可能な領域というのはいっぱいあるわけです。そこでお互いにその判断が信用できるというのは、根拠を出し合って議論することで妥当な判断であるという合意ができるからです。あるいは価値基準が違うから違った判断になるんですねというかたちで、判断が分かれることを認め合うことも人間の場合にはある程度できるわけです。
桐原 面白いですね。将棋の羽生善治さんが言われていたことですが、棋士の指し手の選択肢はAIのように膨大にあるわけではなくて限られた手のなかから直感的に閃きで選んでいる。それが第3次AIブームになってから、もしかしたらAIも閃きのようなものを持ったんじゃないかと。つまり、棋士の指し手の選択についても閃きという説明不能な部分がある。それならAIの説明不能な指し手の選択を閃きと考えてもいいんじゃないかということですよね。現在では将棋のプロの棋士たちは、AIが指した手をみんなで解釈して説明して新しい手を探しています。AIの閃きを説明しようとしているともいえます。先生が言われているXAI的な未来を、もしかしたらプロ棋士たちがすでにやっている可能性はありますね。
辻井 そうかもしれません。結局大きなデータを使って何かやるというのは、ある種の直感みたいなものを捉えていることだと思うんですね。それまで第3次のAIブーム以前のAIというのは、直感的なものは捉えず、むしろ切り捨ててきていたわけです。僕らが合理的に規則化できるものを入れようとしていたわけですから。ところが人間の判断というのは、多くの経験を積み重ねることによって、うまく説明できないんだけどキーになるものを選ぶことができる。そういう全体論的な、ホリスティックな判断、直観があったわけです。その能力をAIが持ちはじめているのは確かだと思います。