東京女子大学現代教養学部准教授・大谷弘氏に聞く
(2)言語コミュニケーションと「常識(コモン・センス)」を考える
(大規模言語モデル)がデフォルトになるコミュニケーションが到来すると
桐原 先日、大阪大学のELSIセンター(Ethical, Legal and Social Issues:倫理的・法的・社会的課題)の岸本充生先生に取材したときに、アメリカの弁護士がChatGPTが生成した存在しない判例を裁判所に提出したエピソードをうかがいました。その弁護士は、ハイパー・サーチエンジンを利用したにすぎないと言ったそうです。ツールとしての側面をみると倫理問題とはまた違ったところの影響がありそうだなと思いました。
大谷 そうですね。新しい技術が出てくると、私たちの生活のかたちが変わってきます。インターネットが出てきたことによって、私たち大学教員はレポートの剽窃の心配をしなければならなくなりましたし、スマートフォンが普及して多くの人がLINEで連絡を取り合うようになると、LINEを使っていない人は個別にメールを送らなければならない面倒な人として扱われてしまう。よい面もたくさんありますが、派生する綻びをどう繕うかという課題は生じます。ChatGPTも、教員としては学生への教育に使えるかもしれませんが、それを使って不正行為をはたらく人がいて、教育的によくないことを黙認してしまうことになると、そこはなんとかしなければなりません。
桐原 さきほどの、意味の意味を調べて……という記号のメリーゴーランドのように、ツールを使ったことの責任を根元にまで追及していくと、ChatGPTの生成したことをChatGPTに問いかけてという連鎖が生じそうです。連鎖のどこかの時点を、一次ソース的に根拠として受け取る人たちが多くなれば、ChatGPTの生成物を正解として成り立つ世界も考えられそうです。
大谷 ChatGPTに聞くことをデフォルトとするようなコミュニケーションが前提となってくると、やはり責任を求めづらくなりますね。たとえば現在ではGoogleで検索をすることが当たり前のことになっているように。
桐原 ChatGPTが話題になってから、多くのコメンテーターがChatGPTが正しいかどうかを判断する力がないと人間はツールに使われてしまうという、何世代も続いてきた道具論を語っています。読んでみると、その人たちがWikipediaやGoogle検索の結果を引用していたりして皮肉にも本人たちがそれに気づいてなかったりします。
大谷 そこは難しいですね。学生には典拠を参照するよう指導しますが、哲学事典を参照すれば間違いないかというと、そういうわけでもない。古い事典だと結構間違っていたりもしますから。生活のなかで何を当然視するかが変わってくると、新しい標準となるものを見つけなければなりません。

関連記事
-
FEATURE2023.05.16パスワードレス社会における安全とプライバシー、幸福とは
オンライン認証の現状と未来②2023.05.16聞き手 クロサカ タツヤ -
FEATURE2025.08.07東京大学ニューロインテリジェンス国際研究機構特任教授 長井 志江氏に聞く
第4回 自己と他者を理解し共有するための科学とテクノロジー2025.08.07聞き手 都築正明 -
REPORT2025.02.11少子高齢化時代の労働力不足を救う、次世代産業用ロボットの革新
第1回 AIロボット革命──NEC『世界モデル』が切り拓く未知環境対応の最前線2025.02.11寄稿者 吉田メグミ