第4次AIブームを切り拓くXAIとCAI
国立研究開発法人産業技術総合研究所 人工知能研究センター長 辻井潤一氏に聞く(3)

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

第4次のAIブームでは、むしろディープラーニング以前の技術が見直されるだろうという。AIの歴史を体感してきた辻井氏ならではの見解だ。人間の知見を組み込んだXAIが、AIの社会実装が進むための大きなヒントになるだろう。

取材:2022年9月21日 オンラインにて

 

 

 

辻井 潤一(つじい じゅんいち)

情報科学者。国立研究開発法人産業技術総合研究所人工知能研究センター長。

1973年京都大学大学院修了。工学博士。京都大学助教授、1988年マンチェスター大学教授、1995年東京大学大学院教授、2011年マイクロソフト研究所アジア(北京)首席研究員等を経て現職。マンチェスター大学教授兼任。

計算言語学会(ACL)、国際機械翻訳協会(IAMT)、アジア言語処理学会連(AFNLP)、言語処理学会などの会長を歴任、2015年より国際計算言語学委員会(ICCL)会長。

紫綬褒章、情報処理学会功績賞、船井業績賞、大川賞、AMT(国際機械翻訳協会)栄誉賞、ACL Lifetime Achievement Award、瑞宝中綬章等、受賞多数。

 

 

目次

AIと人間がお互いの判断の根拠を吟味し合えるようなかたちをつくっていく

第4次AIブームでは演繹的なものと帰納的なものが融合する

次のブレークスルーにはディープラーニング以前の技術も必要

 

 

 

 

 

AIと人間がお互いの判断の根拠を吟味し合えるようなかたちをつくっていく

 

桐原 医療の世界では人間の知見とAIが協働していると聞きます。

 

辻井 医療の場合は典型的ですね。確かにお医者さんが、気がつかないある種の特徴が患者さんのデータにあって、それをAIが見つけ出して正しい診断をする可能性はあるわけです。逆にそういうデータのなかに、たまたま現れた、病疾患の発現機構とは全く関係のない特徴に反応してしまって、他の患者さんにそれを適用して間違った結果を出している可能性もあります。データだけを見ていると2つの可能性があって、1つは僕らの医学で理解できない特徴がやはりあって、それをAI側が捉えていて正しい結論を出している可能性です。もう1つは、病気のメカニズムから考えると特徴としては使ってはいけない、たまたまデータのなかに現れた本質的でない特徴に診断が左右されていて誤診断につながる可能性です。それがブラックボックスになったAIでは僕らには分からない。それが広い意味での「データバイアス」という話で、本来の機構からすると出てはいけないある種の規則性がデータのなかには含まれている可能性もあるわけです。XAIは説明可能AIと呼ばれていますが、単に説明するだけではなく何を見て判断したのかをお医者さんに教えてあげることによって、お医者さんのほうも新しい医学の知識をつくることができるかもしれないし、それは使ってはいけないデータだよとAIに教えることができるかもしれない。人間とAIの異なる2つの知能を近づけることでAIの性能を上げることができるし、人間の知見が深まり科学も進んでいく可能性もあります。XAIという言葉を使うとすぐに「説明」とは何かという問題が前に出てしまいますが、僕らが考えているのはもう少しAIと人間が緊密にお互いの判断の根拠を吟味し合えるような、透明性を上げたAIのかたちをつくっていく必要があるんじゃないかということです。

 

桐原 データの話題が出るとよく言われることですが、データで株式市場を予測しましょうという試みも何度も繰り返してきましたが、必ず失敗します。株式市場が自己言及的になっていて自分たちの判断がデータのなかに織り込まれるので、どんどんデータそのものが変質していくことが起きるわけですね。先生が言われている理解不能なAIも、AI自体がつくりだしたデータがAIそのものを変化させていくという意味合いもありますよね?

 

辻井 それはありますね。判断する側と判断される側が離れている、主体と客体として完全に離れているときはいいんですけど、社会現象の多くは判断主体も社会のなかに組み込まれていて、お互いに影響を及ぼし合う構造になっています。そういう問題はまたもう一段難しくなってきますね。経済現象というのはまさにそういう構造になっているんだろうと思います。もともと複雑な判断というのは説明しにくい話なんです。同じデータを見ていても違った判断になるということはいくらでもあるわけです。だから「説明できない」というのは、必ずしもAIの持っている欠陥ではなく、ひょっとすると複雑な判断というのは本来的にそういう性質を持っているんだと思います。いろんなファクターが複雑に絡み合っていて、それをどういうふうに判断するかというのは判断主体の価値観にもかかわる話でもあり、AIだけがうまくできないのではなく人間の場合もうまくいかないわけです。僕らでも、何かある複雑な判断をしたときに、この判断の根拠を説明してくださいといわれると、どんなに説明しても説明しきれないようなケースはいくらでもあるわけです。ただAIと人間が違うのは2つの違う判断をした主体があったときに、人間同士の場合には、それぞれの判断過程を部分的にでも外化して相互に吟味し合うことができるところです。僕はこういうところを見てこういう判断をしたという根拠を相手に言って、相手はそれに対してまた違う根拠を見せる。おそらく、複雑な判断というのは、いろんな根拠がある重みづけをもってホリスティックに決まってくるのだと思うのですが、そこを系統立てて説明するのは非常に難しい。説明不可能な領域というのはいっぱいあるわけです。そこでお互いにその判断が信用できるというのは、根拠を出し合って議論することで妥当な判断であるという合意ができるからです。あるいは価値基準が違うから違った判断になるんですねというかたちで、判断が分かれることを認め合うことも人間の場合にはある程度できるわけです。

 

桐原 面白いですね。将棋の羽生善治さんが言われていたことですが、棋士の指し手の選択肢はAIのように膨大にあるわけではなくて限られた手のなかから直感的に閃きで選んでいる。それが第3次AIブームになってから、もしかしたらAIも閃きのようなものを持ったんじゃないかと。つまり、棋士の指し手の選択についても閃きという説明不能な部分がある。それならAIの説明不能な指し手の選択を閃きと考えてもいいんじゃないかということですよね。現在では将棋のプロの棋士たちは、AIが指した手をみんなで解釈して説明して新しい手を探しています。AIの閃きを説明しようとしているともいえます。先生が言われているXAI的な未来を、もしかしたらプロ棋士たちがすでにやっている可能性はありますね。

 

辻井 そうかもしれません。結局大きなデータを使って何かやるというのは、ある種の直感みたいなものを捉えていることだと思うんですね。それまで第3次のAIブーム以前のAIというのは、直感的なものは捉えず、むしろ切り捨ててきていたわけです。僕らが合理的に規則化できるものを入れようとしていたわけですから。ところが人間の判断というのは、多くの経験を積み重ねることによって、うまく説明できないんだけどキーになるものを選ぶことができる。そういう全体論的な、ホリスティックな判断、直観があったわけです。その能力をAIが持ちはじめているのは確かだと思います。

 

 

第4次AIブームでは演繹的なものと帰納的なものが融合する

 

桐原 第4次のAIブームは、具体的にはどういうふうに進んでいくとお考えでしょうか?

 

辻井 いくつかのフェーズがあると思っています。1つはAIのなかで何が起こっているかを透明化して見せる。実際に判断をしているAIの横に、その判断過程を見ている別のAIがいて、何を見ているのかを上手に人間の側に見せてあげるみたいなイメージです。AIを分析するようなもう1つのAIをつくって、ちょうど人間とAIの間を仲介する役割を担わせます。アテンションの機構を可視化して、AIがこういうところを見ているのでこういう判断をしたんだと理解できるようにするとか、深層学習のネットワークの内部を可視化してどういう特徴量を捉えているのかを人間にうまく見せてあげる、といった試みが行われています。AIを完全なブラックボックスから少しずつホワイトボックス化する役割を別のAIにやらせるわけです。もう1つは、AIの構成そのもののなかにもっと人間が持っている理解のかたちを埋め込んであげて、AIのアーキテクチャーの設計そのものに我々の科学や工学が作りあげてきた理解の体系を投影するやり方があります。たとえば、いろんな有機化合物の化学式からどういう性質を持つ物質なのかを予測するAIをつくろうというときに、1つは化学式と物性値のデータをたくさん集めてその間を深層学習のモデルでつないであげるというend-to-endのやり方が考えられます。化合物の化学式の物性値の間に何か規則性があるんだけれど、その規則性をデータだけから学習させようという方法です。現在のAIはこうしたend-to-endのやり方が多いわけです。一方で、我々人間には物理学の知識もあるわけですから、物性科学者は何が起こるとどういう物性値が出てくるのかという機構も理解しています。それを深層学習のモデルのなかに再現してあげるというやり方も考えられます。end-to-endではないかたちの深層学習のモデルをつくるという研究をしているグループがあって、物理的に規則性が判明している層を道標のようにAIのモデルのなかに置いてあげる。そうすることで、深層学習でも大きなネットワークは必要なくて小さなモデルで計算が可能になり、また、外挿能力、言い換えると演繹能力の高いAIを作ることができます。

 

桐原 人間の知見を埋め込むわけですね。

 

辻井 そうすると演繹性が出るんですね。end-to-endでやっているときだと、低分子の有機化合物の物性値はデータもたくさんあるので当たるのですが、高分子になるとデータが非常にスパース(まばら)になるわけです。いろんな分子がいろんなかたちで重なり合って大きめの分子をつくるので、そこはもう千差万別の化学式があり、そのデータをすべて取るというのはほとんど不可能になります。大きなネットワークで学習していると、低分子では当たるんだけど高分子になると全然当たらなくなるんですね。ところが前述したような道標を入れてあげると演繹性も出て、高分子でもかなり当たるようになります。結局どういうことかというと、物理学が蓄えてきた知識を深層学習のモデル設計のところに入れてあげると、全体としてよりいいシステムができるということです。そういう話は今いろんなところでやられていると思います。専門的な知識をAIのシステムのなかに入れ込んでいくというのも1つの方法として浸透していくでしょう。

 

桐原 なるほど、非常に面白いですね。第2次AIブームから第3次ブームへの移行は演繹的な思考から帰納的な思考への移行で、次に来る時代は帰納と演繹の両方の能力を持ったAIに向かうというわけですね。

 

辻井 その通りです。

 

桐原 第4次では、ここにもう一回新たに演繹的な思考を入れることで、人間にも理解できるAIに近づけようというか、人間と親しみやすい状態にしようということですね。

 

辻井 もう1つ、「knowledge graph」*という第2次であったような記号的な構造をニューラルネットのなかにうまく入れ込む方法も検討されています。構造的なデータを分散表現に移し込んでニューラルネットに入れ込むとか、逆にニューラルネットの結果を今度は記号的な系と結びつけるという研究も進み始はじめています。

*knowledge graph:現実世界での知識を構造化された事実構造で表現した有向グラフのこと。

 

桐原 演繹的なものと帰納的なものが融合していくわけですね。より人間がやっていることに近づいているのかもしれませんね。

 

辻井 そうですね。そこも2つの方向性があると思うのです。1つは、AIはもう完全に技術として割り切ってしまって、人間とは全然違うものと見てその能力を上げていくために演繹性をどう入れるかという議論があります。もう1つは、AIを人間に近づけていく方向性です。人間とAIがコミュニケーションをしていこうと思うと、どこかでオーバーラップをうまくつくらないと人間には理解できないので人間に近づくような方向も考えていかざるを得ないと思います。

 

桐原 今、AIが実装の局面で進みながら、いろんな問題にぶち当たっていますが、このXAIとかCAIといわれるものがよりAIが人の社会に入っていくためのブレークスルーの大きなヒントになりますね。

 

辻井 AIの社会実装について考えると、社会に受け入れられるかどうかが大きな問題になっていると思います。AIが社会実装されるということは、閉じた世界で使われているところから社会のなかにどんどん入って行くことですよね。そうなると、AIの社会実装を受け入れる社会の側の受容度を上げていく必要があるわけです。そこでやっぱり説明可能性だとかブラックボックスではないAIをうまくつくらないと、「いい判断をしますよ」ということだけでは受容度は高まらない感じがしています。

 

 

次のブレークスルーにはディープラーニング以前の技術も必要

 

桐原 オーバースペックなものって意外にビジネスの現場では求められていなかったりします。AIエンジニアと話をすると、「別にディープラーニングじゃなくてアルゴリズムでできるレベルですね」みたいなことを言われたりします。

 

辻井 そうですね。ディープラーニングでつくられるのは1つのコンポーネントだと思うんですね。実際に使われる現場では、それを組み込んだ大きなシステム構成をつくらざるを得なくて、場合によってはディープラーニングの部分はごくごく小さいかもしれない。いわゆる第2次のAIでやっていたようなことが結構役に立つ部分も大きいと思います。AIが社会に入っていくときには、ディープラーニングという言葉が過剰に期待を抱かせたことは確かで、実はディープラーニング以外の技術の貢献も結構大きいのかなという感じはしています。

 

桐原 それこそ囲碁AIも探索の技術とか推論の技術で発達してきました。第3次AIブームと同じ頃にモンテカルロ木探索が入って、そこにディープラーニングが来て爆発的な進化をしたという意味で言うと、第1次の技術と第3次の技術の融合と言えますね。

 

辻井 本当にそうですね。

 

桐原 演繹的な論理の推論のような部分と帰納的な論理のディープラーニングのような部分というのは、AIのなかで得意分野を使い分けるという考え方でいいんでしょうか?

 

辻井 その通りです。ある種の直感的な部分がディープラーニングでできるとか、あるいはこの局面だとどの方向に行くのがいいのかというプレディクション(予測)はディープラーニングがやると思います。一方で、プランニングに相当するような、先ほど言われたモンテカルロのリサーチというのは、むしろ第1次のリサーチの問題と確率的な話をうまく取り込んだわけですよね。そういう意味では、必ずしもディープラーニングだけで全てが解けたわけではなくて、プランニングにもまた別の技術が入ってくるし、シミュレーション技術ももっと強力に使われていくと思うんですね。ディープラーニングが1つのブレークスルーであったことは確かなんだけど、他のブレークスルーも、第4次AIには寄与してくるだろうと感じています。

 

桐原 XAIの研究は世界的にかなり進んでいるのでしょうか?

 

辻井 もともとXAIが注目されたのは、アメリカのDARPA(国防高等研究計画局)がXAIのプロジェクトを始めたことがやはり大きな契機になっています。ただ、説明可能AIという言葉は「説明」にちょっと重点を置きすぎているきらいがあります。それ以外にもAIのブラックボックス性という別の問題があって、なんでこの結果が出てきたのか、思考のプロセスを透明化していこうという流れも出てきています。特にヨーロッパはその意識が強いでしょう。現在は、DARPAがやった狭い意味でのXAIから、もう少し広い範囲でAIの制御可能性や透明性や責任性について議論されています。

 

桐原 今日は京都大学の研究時代の話からスタートしたのですが、その当時に機械翻訳に取り組む際に、理解や意味を切り離して言語のかたちだけを処理する技術として捉えるということをおっしゃっていましたが、今また逆に意味を理解する汎用性の高いAIをつくろうとしているというのは、AI進化の歴史を垣間見るようで大変興味深かったです。

 

辻井 機械翻訳に関して言うと今はend-to-endで、本当に言語のかたちだけでかなりの部分ができるようになりました。しかし、次のステップになると、抜本的なイノベーションのためには、やはり意味の理解を入れざるを得ない。そこにはまだほとんど手が付いていない感じですね。(了)

(1)を読む

(2)を読む