日本大学文理学部 情報科学科准教授・大澤 正彦氏に聞く
第3回 人とAIが歩み寄るヒューマンエージェント・インタラクションの可能性
意図スタンスと倫理の関係をどう考える
デネットの3スタンスとAI規制
デネットのスタンスの3つの分類お聞きしていて、レッシグ2が論じたコードの要素を思い出しました。レッシグは、法・規範・市場・コード(アーキテクチャ)という4つを規制のモードとして挙げています。先ほどの設計スタンスはアーキテクチャに該当すると思うのですが、意図の部分に立ち入っていくことは、規範つまり道徳などの問題に触れずにはいかないのではないかという気がするんですけど、いかがですか。
大澤 もう少し詳しく説明していただけますか。
設計スタンスを超えて個人の判断に委ねる挑戦
人の行動は法律で規制されたり、柵をつくって入場を規制するみたいにアーキテクチャをつくったりします。一方で、倫理とか規範で人の行動が決まる部分もあります。デネットがいう意図のスタンスは心に訴えるということなので、ヨーロッパが危険している部分とつながるとも感じますし、そこを研究することは倫理的な問題に立ち入らざるを得ないのかなと思うのですが。
大澤 すべてのAI研究は倫理と切り離せません。設計スタンスであれ意図スタンスであれ、研究する上うえで倫理を気にしないことはありません。でも、おっしゃっていることも、なにかヒントが隠されている気がします。
ルール(法)を拡大すれば倫理に頼らなくてもいいじゃないかという考え方もあります。良し悪しの判断なんかできなくても、ルールでダメならやらないじゃないかと考える人もいるだろうなと思っています。今のお話で言うと、設計が充実していって、あたかも意図があるかのような設計と本当の意図の隙間に、倫理性や人間性みたいなことが絡んでくるのではないかと思ったのです。
大澤 AIの行動のすべてのルールを書くのは無理です。何をやっていい、何をやっちゃいけないってルールは書ききれない。ルールの設計が追いつかなくなるということは、設計スタンスで解釈することが不可能になるということです。そうなっていくと、事前にルールをつくって、正しいもののなかできちんとと物づくりしていきましょうということがだんだん成立しなくなっていく。一人ひとりが倫理観を持って、良い悪いを考えてやっていかないといけないというように複雑性が立ちあがったときに、どんなに複雑な問題でも、多くの人が自分の経験から判断できるようになっていく仕組みが意図スタンスなのかもしれないですよね。