AIが加速する時代にこそ「科学を俯瞰する哲学的視点」を
─東北大学総長特命教授 野家啓一氏に聞く(3)
テクノロジーの進化は不可逆的だからこそ、研究には倫理的・法的・社会的問題への配慮が欠かせない。最終回では、科学と哲学との双方が歩み寄り、私たちの社会生活に寄与する科学のありかたを探る道筋が示される。また野家氏が強調する人間の主体性やクリエイティビティについても語られた。
取材:2023年3月16日 オンラインにて
野家 啓一(のえ けいいち) 東北大学名誉教授。日本哲学会元会長。専攻は哲学、科学基礎論。近代科学の成立と展開のプロセスを、科学方法論の変遷や理論転換の構造などに焦点を合わせて研究している。また、フッサールの現象学とウィトゲンシュタインの後期哲学との方法的対話を試みている。1949年仙台生まれ。東北大学理学部物理学科卒業。東京大学大学院科学史・科学基礎論博士課程中退。南山大学専任講師、プリンストン大学客員研究員、東北大学文学部教授・理事副学長を経て現職。『言語行為の現象学』『無根拠からの出発』(以上、勁草書房)、『物語の哲学』(岩波現代文庫)、『科学の解釈学』(講談社学術文庫)、『パラダイムとは何か クーンの科学史革命』(講談社学術文庫)『科学哲学への招待』(ちくま学芸文庫)、『歴史を哲学する』(岩波現代文庫)など、著書多数。1994年第20回山崎賞受賞。2019年第4回西川徹郎文学館賞受賞。 |
目次
ELSI(倫理的・法的・社会的課題)の重要性
桐原 物理学者のロジャー・ペンローズの『心は量子で語れるか』(中村和幸訳/講談社ブルーブックス)の後半で、かつての盟友であったスティーヴン・ホーキングがペンローズの主張がプラトン主義的な統一理論だとして、実証主義の立場から否定しました。人工知能をめぐるシンギュラリティについては少し落ち着いてきていましたが、ChatGPTが登場して議論が再燃してきそうです。いずれ人間を超える人工物が出てくることをみんな信じていますし、人工生命が生まれることも信じている節があります。ペンローズの量子脳理論に限らず、生命の秘密を解き明かすたった1つのルールの存在を信じている学者も多くいると思いますが、先生はどうお考えですか。
野家 2045年に到来するシンギュラリティによって、私たちの職業の多くがAIに取って代わられるという言説が飛び交っていました。AIの能力が次第に高くなり、人間の能力の一部が代替されることはあり得るかもしれません。ただし、私は全面的に人間が必要なくなったり、今の職業が一夜にしてなくなったりということは起こり得ないと考えています。AIにしても機械なわけですから、それをどう使うか、どう理解するかは、少なくとも半分は人間の手に委ねられているわけです。その人間の主体性のところをしっかり押さえておくことが大切です。iPS細胞は創薬や再生医療などさまざまに応用できますが、山中伸弥先生は京都大学のiPS細胞研究所に上廣倫理研究部門という部署を設置して、生命科学の研究に欠かせないELSI(Ethical, Legal and Social Issues:倫理的・法的・社会的課題)を検討しています。アメリカではヒトゲノム計画以降、日本の科学研究費にあたる外部研究予算の少なくとも5%をELSIの研究に振り分けることになっています。日本では、生命科学分野では次第にそのような動きが出てきていますが、私は今後コンピューター・サイエンス分野にもELSIの検討部門を設置する必要があると考えています。
桐原 ゲノムをはじめ、人体に直接かかわる医学や生理学の部分では倫理面に非常に敏感な一方、ITやAIなどのテクノロジー寄りの分野では倫理観が薄くなる傾向があるように思います。
野家 それは明確にありますね。生命科学の場合は人間の生死と密接にかかわっていることが重要なポイントですが、AIなどの工学技術の場合には、それが人々に意識されていません。しかし、私たちはそうした技術に目に見えないレベルで取り込まれています。ですから今のうちに生成型AIなどの研究にはELSI部門の予算を付けて、どのような社会ができあがるのか、どのような社会へと向かうべきかという検討をきちんと行うべきでしょう。ChatGPTを問題にするのなら、研究を一時停止するという提言もなされましたが、著作権の問題をはじめ国際的なルール作りへの取り組みが歯止めや防御策になるのだと思います。
桐原 おっしゃる通りだと思います。テクノロジーに携わる人ほど、先生がおっしゃったトランス・サイエンスや「離見の見」のように、自分のしている研究を俯瞰的に見て顧みることが必要でしょうね。
野家 そう思います。日本では残念ながら、大学の哲学科にもそうした研究をする学科ができていません。むしろ専門的な知識を持つ理工系の学部にそうした部門を設けて、現状の事態をはっきり明確に理解したうえで、それがどういう社会的影響を及ぼすのか、またそれに対してどう対処すべきかということを共に学び、教えるべきだと思います。
研究室の扉をひらいた臨床哲学
桐原 理学系の人たちのなかでもテクノロジストといわれる人たちからは、世の中をよくするんだ、よいことをしているんだという自負を強く感じます。だからこそ反省が働きにくい面もありますね。そうした意味では、科学哲学を含め哲学の分野から考えて発信することの重要性が増しているように思います。
野家 私もそう思います。最近は大阪大学の元総長の鷲田清一さんが「臨床哲学」を提唱しておられます。20世紀後半から21世紀にかけてさまざまな社会問題が出てくるなかで、これまで書斎のなかの学問だった哲学をもう一遍、社会の現場で鍛え直さなければならない。鷲田さんはそうおっしゃって、ケアや医療の現場など社会の最前線で悩みや苦しみを抱えている方々の声に耳を傾けて寄り添いつつ、哲学の見地から支援する活動をされています。現在は鷲田さんの意を汲んだ若い方たちを含めて、介護や教育、ジェンダーなどの幅広い分野で、当事者との共同研究を軸にさまざまな活動が行われています。鷲田さんは大阪大学大学院文学研究科の倫理学研究室を臨床哲学科と改称して再編成しましたが、理工系の学部にもこうした臨床哲学的なことを考え発信する部署を設けていかなければならないと思います。
桐原 鷲田さんは身体論の方ですから、身体を通じた倫理や哲学ということなのでしょうか。自然科学も身体を抜きにして語ることができませんね。
野家 こうした分野では、文系/理系という区別は次第になくなっていくべきだと考えています。大阪大学でコミュニケーションデザイン・センター(現在はCOデザインセンターに改称)のセンター長をされていた小林傳司さんが現在JST(Japan Science and Technology Agency:科学技術振興機構)に移られて、社会技術研究開発センターのセンター長をされています。彼は大阪大学工学部の大学院でゼミを担当して、社会で話題になっている具体的な問題についてSTSやトランス・サイエンスの視野から大学院生に考えさせる授業を続けておられました。こうした試みを普及させようという動きが少しずつ出てきていますから、それをきっかけに科学哲学や臨床哲学の重要性が多くの大学で認識されるようになり、少なくとも理工系学生には必修化するくらいの大胆な改革を進めることが必要だと思います。
桐原 私が技術に触れつつ覚えていた危うさや違和感は、やはり先生のおっしゃられたような哲学的なアプローチから払拭されるべきだと改めて思いました。技術の進歩は後戻りをしません。不安感や疑問を抱いたとしても立ち止まらずに先に進んでいってしまう。
野家 技術というのは、発見されたり発明されたりすると、それ以前には戻れなくなるんですね。そうすると、結局その新しいものをどう使うかという話になってきます。倫理や哲学というバックグラウンドがないと、その技術をどう使うかについて、きちんと筋道を立てて考えていくことができない。ChatGTPの問題をはじめ、今はそのような状況に入りつつあるのではないかと思っています。
桐原 お話を伺って、後戻りができないからこそ、今までの科学技術を反省したり、科学が輸入された経緯まで遡って反省したりということが、私たち日本人にとって重要なのだと思いました。そこは日本の近代化を反省したり見直したりすることとも通底しているように感じます。
野家 ただし最先端の物理学やエンジニアリング、生命科学を研究している研究者には、とてもそうしたことに割く時間的余裕がありません。1分1秒でも早く研究成果をネットにアップして競争者を出し抜かなければならない状況ですから、とても倫理や哲学などの周縁的なことまで考えていられない、というのが理系の研究者の本音だと思います。また若い方はそこまで手が回らないのが実状だと思いますから、やはりノーベル賞受賞者など影響力のある立場にいる方に、率先して反省的な視点を若い方たちに植え付ける活動をしてもらう必要があると思っています。
誤解や間違いにこそ希望がある
桐原 カタールワールドカップでは、VAR判定の結果が大きく試合に影響しました。これこそ数学の言葉で人間や自然を書き換えようとしている始まりのように感じました。人間よりもAIを信じる、知覚より数学の言葉を信じるような時代に差し掛かっているのかもしれないと考えさせられました。
野家 そうですね。人間の知覚能力には一定の限界があります。そこで私たちは知覚能力の拡張として望遠鏡を使ったり顕微鏡を使ったり、また老眼鏡を掛けたり補聴器を使ったりということをしているわけです。サッカーやプロ野球で用いられるAIやビデオ判定も、その延長線上にあるものとして捉えられるかどうかということですね。そこで今おっしゃったように、人間の知覚は信用ならない、AIのほうが信頼できるし正しい知覚を提供してくれるという価値観の逆転が起こりかねません。そうならないためには、人間の主体性を確保しておく必要があるだろうと思います。そうでなければ、至るところに防犯カメラやセンサーが設置されて人間の行動が管理されることになりかねません。あくまで機械を使うのは人間だという主体性をどう確保するかという歯止めとなる一点を、人間の尊厳として確保しておく必要があるだろうと思っています。
桐原 「デジタルネイティブ」といわれる若い人やこれからの子どもたちが、テクノロジーに依拠しきった価値観を持つことになりかねません。
野家 今は、小学生でもIT技術については私などよりはるかに進んでいると思います。一方で、そうしたIT技術が社会に実装されていく過程で、いじめなど人間関係の問題が生じてくるわけですね。ですから、技術教育とともに倫理的・法的・社会的なELSIに関わる問題を車の両輪として身につける必要があります。技術の発展というのは止めることができませんから、一方でELSIの問題についても常に考え続ける。そういう態度を小学生のうちから養っておくことが必要です。その際に、小学生よりもIT技術で劣っているような教員が題目をならべても説得力がありませんから、車の両輪をきちんと身につけた優秀な教員を養成していかなければなりません。
桐原 私たちはどのように科学技術と向き合えばよいのでしょう。
野家 解釈や意味づけ、価値判断が人の仕事として残るかどうかという問題があります。私としては、ぜひ残ってほしいとは思うのですが、最近の生成型AIは俳句をつくったり小説を書いたりして人間の感性、感情の領域にまで入り込んできています。一方で、将棋の藤井聡太棋聖はAIを使って将棋を学んだり研究したりしていますが、AIには思いもよらないような一手を指すこともあるわけです。そこが人間のクリエイティビティだといえます。AIは膨大な過去のデータを処理して一定の前提条件下で唯一の正しい答えを見つけるのは人間より得意だと思います。しかし、人の話を誤解したり間違いをおかしたりということは、コンピューターには難しいのではないでしょうか。そう考えると、誤解したり間違いをおかしたりすることのなかに人間らしさがあって、これはAIには真似できないことではないかと言うこともできます。逆説的になりますが、誤解や間違いや失敗のなかからこそ、新しいものの見方や考え方、これまでのパラダイムを変えるような発想が出てくるのではないかと、私は考えています。むしろ、そういう意味での人間らしさのほうに今後は期待していきたいと思っています。<了>