“ポスト・トゥルース”時代のナラティブとハルシネーション
第1回 予期しうるソーカル事件と不満スタディーズ

REVIEWおすすめ
テキスト 都築 正明
IT批評編集部

生成AIが民主化された現在、物語と論理がどのような変容をおこしうるのかについて考えてみたい。ここでは学術界を撹乱した2つの事例を紹介しつつ、そこにAIが介在することでわたしたちの倫理が相対化される懸念について考察する。

 

目次

生成AIの出力はすべてがハルシネーション

ソーカル事件が示唆する生成AIの“悪用”

ハルシネーションは“現実”批判たりうるのか?

さらに難易度を増しうる論文査読

 

 

 

 

生成AIの出力はすべてがハルシネーション

 

ChatGPTのリリース当初、日本ではまことしやかでまちがった回答が出力されるのを嗤う面白ツールとして受容された。エゴサーチよろしく自分の名前を入力した人も多いだろう。その背後には、生成AIがシンギュラリティ仮説に近づくツールであると過大評価するとともに、コンピュータが人を上回っては困るという心証があったのだろと思われる。確率計算に基づく生成ツールとして認知されたいまでも生成AIのハルシネーションをあげつらい、憂いてみせる仕草をよく見かける。

しかし憂慮すベきは、生成AIの便利さが受け入れられることで懐疑論が礼賛論へと無批判に反転することだろう。それは、わたしたちがこれまでWikipediaやDeepLにみてきたことだ。

幾度も繰り返されてきた若者論のテンプレートにあてはめて、子どもや学生が生成AIに書かせたレポートを提出するのではないか――という声も聞こえてきそうだが、Wikipediaをひきうつして報告書をつくる政治家や作家も、DeepLで出力した英語論文をリファレンスに載せる学者も、すでにいくらでもいる。

この記事の読者に、向けて改めていうまでもないが、生成AIの出力はすべてがハルシネーションであり、膨大なデータとパラメータを用いることで尤度(ゆうど)が高まっているにすぎない。弊害を生むのは生成AIではなく、それを鵜呑みにするユーザーのほうである。

1 2 3