東京女子大学現代教養学部准教授・大谷弘氏に聞く
(2)言語コミュニケーションと「常識(コモン・センス)」を考える

FEATUREおすすめ
聞き手 都築 正明(IT批評編集部)/桐原永叔(IT批評編集長)

(大規模言語モデル)がデフォルトになるコミュニケーションが到来すると

桐原 先日、大阪大学のELSIセンター(Ethical, Legal and Social Issues:倫理的・法的・社会的課題)の岸本充生先生に取材したときに、アメリカの弁護士がChatGPTが生成した存在しない判例を裁判所に提出したエピソードをうかがいました。その弁護士は、ハイパー・サーチエンジンを利用したにすぎないと言ったそうです。ツールとしての側面をみると倫理問題とはまた違ったところの影響がありそうだなと思いました。

大谷 そうですね。新しい技術が出てくると、私たちの生活のかたちが変わってきます。インターネットが出てきたことによって、私たち大学教員はレポートの剽窃の心配をしなければならなくなりましたし、スマートフォンが普及して多くの人がLINEで連絡を取り合うようになると、LINEを使っていない人は個別にメールを送らなければならない面倒な人として扱われてしまう。よい面もたくさんありますが、派生する綻びをどう繕うかという課題は生じます。ChatGPTも、教員としては学生への教育に使えるかもしれませんが、それを使って不正行為をはたらく人がいて、教育的によくないことを黙認してしまうことになると、そこはなんとかしなければなりません。

桐原 さきほどの、意味の意味を調べて……という記号のメリーゴーランドのように、ツールを使ったことの責任を根元にまで追及していくと、ChatGPTの生成したことをChatGPTに問いかけてという連鎖が生じそうです。連鎖のどこかの時点を、一次ソース的に根拠として受け取る人たちが多くなれば、ChatGPTの生成物を正解として成り立つ世界も考えられそうです。

大谷 ChatGPTに聞くことをデフォルトとするようなコミュニケーションが前提となってくると、やはり責任を求めづらくなりますね。たとえば現在ではGoogleで検索をすることが当たり前のことになっているように。

桐原 ChatGPTが話題になってから、多くのコメンテーターがChatGPTが正しいかどうかを判断する力がないと人間はツールに使われてしまうという、何世代も続いてきた道具論を語っています。読んでみると、その人たちがWikipediaやGoogle検索の結果を引用していたりして皮肉にも本人たちがそれに気づいてなかったりします。

大谷 そこは難しいですね。学生には典拠を参照するよう指導しますが、哲学事典を参照すれば間違いないかというと、そういうわけでもない。古い事典だと結構間違っていたりもしますから。生活のなかで何を当然視するかが変わってくると、新しい標準となるものを見つけなければなりません。

1 2 3