わかりにくさの罪、わかりやすさの罰
XAIが目指す帰納的飛躍の解消

前回、前々回にわたって思索と文体について考えてきた。それはとりもなおさず、インプットとアウトプットの関係、あるいはその間のプロセスにあるものについて考えることにほかならない。インプットとアウトプットの関係はディープラーニング以降のAIにとって重要な問題である。
目次
インプットとアウトプット/演繹と帰納
なぜインプットとアウトプットの関係がディープラーニング以降のAIにとって重要なのかといえば、人がディープラーニングのプロセスを理解できないことに起因する。ディープラーニングで用いられる多層化されたニューラル・ネットワークはブラックボックス化しており、インプットとアウトプットを因果関係で理解しにくいのだ。
アルゴリズムによるルールベースで処理を行なっていた第2次ブームまでのAIと、機械学習によって処理を行う第3次ブームのAIは大きく異なる。記号と計算による演繹法的な処理と、経験と学習による帰納法的な処理の違いと言えるだろう。前者は大前提となるルールがあり、そのルールに沿って処理を行う。一般的な事象から個別な事象を判定していく演繹法を極簡単に説明すれば三段論法である。
カラスは黒い→あの鳥は黒い→したがってあの鳥はカラスだ、となる。
ディープラーニング以前のAIは演繹的なロジックに従って計算を行なう。現在でも経路探索などで盛んに活用される処理だ。演繹では、インプットとアウトプットの関係は非常に明瞭だ。インプットが誤っていればアウトプットも誤る。人に理解できない点はない。
これがディープラーニング以降のAIでは、個別な事象から一般的な事象を導く帰納的なロジックになる。上の例に沿っておこう。いささか簡略にすぎるがここでの議論にはこれで十分だろう。
黒い鳥Aはカラスだ→黒い鳥Bはカラスだ→たぶん黒い鳥はすべてカラスだ。
帰納的なロジックにおいて、インプットとアウトプットは急に不安定な関係になる。例に沿って言えば、すべてのカラスについて確認することができないからだ。個別な事象が無限にあるために得られる一般は限定的なものとならざるを得ない。際限のないインプットから、もっとも正しいと思われるアウトプットへ導くように「重みづけ」と言われる処理を行う。この過程を学習というわけだが、それはあたかもペットの躾のようなものだ。
ペットがいつ(人にとって)正しい振る舞いをし、いつ誤った振る舞いをするかは正確にはわからないし、事前にそれを理解させることはできないから、都度都度の振る舞いに対し、飼い主は褒めたり叱ったりといった躾を行う。ペットもなんどか褒められたり叱られたりを繰り返し学習していく。
「強化学習」というディープラーニングに重要な概念は事実、動物に対する行動分析学が発祥の概念である。
帰納的な処理を行うAIにおいてインプットからアウトプットが予想できない。人が理解できないのは、飼い主には、経験によって躾けられていくペットの振る舞いをすべて予測できない、すべて理解できないことと同様である。
行動分析学については『行動分析学入門 —ヒトの行動の思いがけない理由』(杉山尚子著/集英社新書)がわかりやすい。この本をペットの気持ちを理解するヒントにする読者もあるようだ。
行動分析学入門―ヒトの行動の思いがけない理由
集英社新書
ISBN:4-08-720307-7