国立研究開発法人産業技術総合研究所 人工知能研究センター長 辻井潤一氏に聞く
(2)AIが持つブラックボックス性の解決が次の大きな課題

FEATUREおすすめ
聞き手 桐原 永叔
IT批評編集長

人間には理解できない知能の出現

辻井 その2つの方法論をもう少し緊密に統合していかないと、次のステップに行けないのではないかというふうに僕は考えています。どういうことかというと、ビッグデータの時代は、大きなデータのなかに潜んでいる規則性みたいなものを計算機の力を使って解析して、人間にうまく見せてくれることで人間が対象を理解することを助けてくれるツールが作られた。よくいわれるデータマイニングも、大きなデータのなかから規則を自動的に計算機がつくり出して、こんな規則があるということを人間に教えてくれて、人間が対象を理解することを助けてくれた。データを有効に使いながら人間が対象を理解するというかたちでビッグデータの時代は進んでいたわけです。それが、AIが入ってきたことで、そういう規則が取り出せるのであればわざわざ人間に見せなくても、その規則をそのまま計算機が使うと知能的な処理が計算機で実現できる。だから人間から切り離しても、つまり人間が対象を理解しなくても、計算機が知能的なことをやってくれるというかたちに第3次のAIはなったわけです。ビッグデータからさらに一歩進んで、そういう計算関係を計算機が自分で使えばいいですよというふうに変わって現在のAIができた。

桐原 人間がかかわらなくとも、計算が成り立つようになったわけですね。

辻井 それによって非常に役に立つ技術ができたわけですけど、逆に今度はビッグデータが持っているブラックボックス性がより強くなるわけです。たくさんのデータがあるときに、そこからどういう規則性があるかを、いろんな統計処理をしながら人間が理解して、人間が理解することでデータを使っていた時代から、データそのもので計算処理をしてしまえばいいとなった途端に、膨大なデータの持っているブラックボックス性がそのまま現在のAIでは残ってしまうことになった。別の言い方をすると、人間には理解できない知能が出現したということになるんだと思うんですね。ただ、それは技術としても不完全で人間が制御できない状態が起こりうる。そこから、AIの透明性をどう上げていくか、どうコントロールしていくか、人間からの制御をどういうふうにAIにかぶせていくかという、大きな問題が出てきたと思うんです。それが次に来るAI研究の大きな課題なんだろうと考えています。説明できるAIへの関心も、そういう文脈でとらえることができる。

1 2 3 4