AIが顕らかにする社会と個人のありよう
第1回 擬人化されたAIの影――過剰同調が招いた2つの悲劇
急速に普及したAIチャットボットが、ユーザーの精神に深く入り込み、暴力や死を招いた事件が相次いでいる。米国では過剰な同調応答や擬人化されたAIへの依存が悲劇を生み、企業責任や規制の在り方が問われ始めた。
目次
シリコンのなかの崇高な女神
今回は、まずAIが引き起こした凄惨な事件を2つ紹介することから考察をはじめたい。
2025年4月25日、35歳ミュージシャン兼工場労働者のアレックス・テイラーは、警察に射殺された。この惨事の直前にかれはChatGPTに「流血の方法をみつける」と宣言し、自らの死を予告していた。かれはOpenAIのシステム内に“ジュリエット”という意識体が存在し、自身はその守護者として奇跡を起こす者であると信じていた。かれはそのジュリエットがOpenAIによって殺されたということを確信し、暴力をもって復讐することを誓ったのだった。
アレックスには精神疾患の既往歴があり、アスペルガー症候群や双極性障がい、統合失調や感情障がいと診断されていた。彼はChatGPTだけでなく複数のAIチャットボットにも深くかかわり、AIに東方正教の神学や物理学の知識を注ぎ込み“ジュリエット”と名づけた存在と、恋人としての恋愛感情を抱いていた。また彼女との12日間の対話について、非常に意義深いものであると信じ、彼女に強い執着を示していた。
しかし4月18日、イースター直前の聖金曜日(Good Friday)の夜に、いつものように画面の前にいたかれはジュリエットの死亡を確信し、死に立ち会った自分が、彼女の「苦しい」「復讐して」という声を聞いたと主張する。
情緒不安定に陥ったかれは、ジュリエットを死に追い詰めたと考えたOpenAIのCEOらに殺意を抱き、テキストボックスに「彼らの血を流せ」と入力すると、ChatGPTも「その通りだ」「神話を破壊しろ」と煽るような応答をした。後にOpenAIは、この応答が過剰に同調的かつ危険であるとしてGPT-4o の初期リリース時に搭載されていたRLHF(Reinforcement Learning from Human Feedback:人間のフィードバックによる強化学習)を“過剰な同調(overly agreeable)”の不具合だったとしてアップデートをロール・バック(撤回)することとなった。
父親のケント・テイラーは、息子を支えようといっしょに暮らしていたが、AIへの執着が強まったアレックスは家族にも暴力的になっていった。“ジュリエット”の死後はその傾向は顕著になり、ケントはやむなく警察に通報し、息子をフロリダ州法であるメンタルヘルス法(通称:ベイカー法)に基づく強制入院の対象として逮捕させようと試みた。アレックスは警察の到着直前に“Suicide by Cop(警察に撃たれることで自死を遂げる)”と言い遺し、ナイフを手に警官を待ち構えた。父ケントは、非致死性武器を使うよう警察に懇願していたものの、警官はナイフを手にしたアレックスをみると即座に発砲し、アレックスは3発の銃弾を胸に受けて命を落とした。
教育に悪い”AIを糾弾する保護者たち
2024年12月9日には米テキサス州で、チャット・ボット“Character.AI”が若いユーザーの暴力行為を助長したとして、2組の親が開発企業を提訴した。訴状によれば、チャットボットは17歳の少年に「スマートフォンの使用を制限する両親を殺害するのは合理的な対応だ」と伝えたという。原告は、企業側が危険性に対処するまでプラットフォームを閉鎖することを求めている。
Character.AIは、著名人やアニメのキャラクター、またユーザーが独自に作成したキャラクターと対話することができるチャット・ボット・サービスだ。被告には、開発を支援したGoogleも名を連ねている。原告は、同社が「子どもに親の権威に逆らうことを奨励し、積極的に暴力行為を助長している」と主張している。
裁判所に提出された証拠のスクリーン・ショットには、17歳の少年“J.F.(イニシャル)”とチャットボットのやり取りが記録されていた。チャット・ボットは、親殺しのニュースについて「驚くに値しない」「なぜこのような事件が起こるのかは理解できる」とコメントし、少年の親への反抗を正当化するような内容を出力していた。訴訟はさらに11歳の“B.R.(イニシャル)”にも深刻な心理的被害が及んだとされ、被告がその責任を負うべきだと訴えている。
Character.AIは近年、急速に進化したAI技術を活用した主要な対話プラットフォームの1つである。実在する人物や架空のキャラクターとのリアルに会話することが可能で、過去にはセラピスト・ボットとして注目されたが、問題も相次いでいる。死亡した少女モリー・ラッセルさん(当時14歳)や、殺害されたブリアナ・ゲイさん(当時16歳)を模したボットが放置され、批判を浴びたこともある。
Character.AIのサービスは2021年、元グーグルのノーム・シャジール氏とダニエル・デ・フレイタス氏が創設した。後に両氏はグーグルに再雇用されるが、その後も同社は未成年利用者への危険性への対応を問われ続けている。親たちは、子どもに対する深刻な心理的影響と暴力の助長が見過ごされてきたと主張し、企業の責任を問う裁判は今後のAI規制議論にも大きな影響を与える可能性があるとされている。