AIの倫理とその再配置を考える
第5回 特異なアクターとしてのAI

ANTではモノもアクターと見做されるが、生成AIは単なるツールとしての位置づけを超え、意味を翻訳・生成する動的な媒介者として特異な位置を占める。その分散的かつ異種混交的な性質は、倫理や責任の枠組みに新たな再考を迫っている。技術と社会の共進化を読み解くカギはどこにあるか。
目次
生成AIもまたアクターである
AIをアクターと見なすための3つの視点
ラトゥールのANTにおいて、生成AIもまたアクターとして機能しうる。まず、生成AIをアクターとしての要件に照らし合わせてみよう。生成AIは、画像や文章の作成を通じて、社会的影響や効果を及ぼす効果を持つ。またユーザー・データ・アルゴリズムなどの要素と連鎖的に作用する動的なネットワークの結節点である。そして入力データを解釈し、予測不可能な出力を生成する過程で意味のずれを生じさせる翻訳と変換の媒介者である。
現在の生成AIのアクター性は自律性に基づくものではないが、ネットワーク内での効果によって規定される。他の要素とどのようにエージェンシーを形成するかがANTの注目する点である。この理論的枠組みにおいて、生成AIは主体/客体の二項対立を脱却し、技術と社会との共進化を分析する有効なツールとなる。生成AIをアクターとして捉えることで、従来の「主体vs客体」という二項対立を超えた社会記述が可能になる。
さらに、生成AIの情報処理プロセスにおける異種混交的な行為連鎖についても、ANTの見地から3つのフェーズに分けて分析することができる。
1つめはデータ収集における相互作用で、ウェブクローラーが自動的に情報を収集する非人間アクターとなり、プラットフォーム規約がデータ利用を制約するフレームワークとして作用する。そこではユーザー生成コンテンツが情報として収集され、フィルタリング・アルゴリズムがコンテンツを選別する。これらのアクターにより形成されたデータセットがAIの学習基盤を構築する。
2つめの翻訳のプロセスにおいては、元データから不適切コンテンツなどのノイズを除去するデータクリーニング、単語をベクトル空間に変換する基盤モデルの作用、トークン選択メカニズムにおいて行わえる次単語を予測する確率計算による確率分布の生成の3つの段階において、それぞれ意味のずれが発生するとともに累積し、もとのデータセットとは異質な表現が生成される。
3つめの出力のネットワーク再編においては、生成物の権利帰属をめぐる著作権管理システム、デイープフェイク検出アルゴリズムなどのコンテンツ検証ツール、また生成結果に対する多様なユーザー解釈のパターンにおいて、AIの出力結果と人の解釈との循環的ネットワークを形成する。これらにおいて生成AIは、人との相互関係をもたらすのだが、ここにはモデルの微調整によるパーソナライゼーションの進化の効果や、倫理基準の再定義によるコンテンツフィルター更新などの社会規範の変化などの特徴的なフィードバック・ループをみることができる。
アーキテクチャの更新におけるアップデートも、まさに“ブラック・ボックス”的に行われることとなる。
生成AIの特異性と倫理的配置
責任の分散構造と倫理判断の困難性
AIについて倫理が述べ立てられる根拠の“ゆらぎ”については、ANTを経由すると、既存の人工物の境界を超える特異性にあることが見えてくる。生成AIは既存のツールとは異なり、ユーザーのプロンプト解釈とアルゴリズムの確率計算が相互作用することで新たな意味を生み出す。このプロセスにおいて、生成AIは訓練データの文化的背景や法制度の制約と連動して、既存の人工物の範疇を超えた媒介者としての役割を持っている。
生成AIの分散型エージェンシーとしての構造も、ことを複雑にしている。基盤モデルのアルゴリズムにおけるアテンション機構においては、ランダム性を付与することで確率計算の自律性に似たものが付与されており、データセットはインターネット・アーカイブの文化的バイアスを完全には排除することができない。
また著作権フィルタリングにおいては、法的制約を内在化しているなど、エージェンシーは単一の存在ではなくネットワーク全体に分散している。また、人と人工物との異種混淆性がきわめて高いだけでなく、それぞれのアクターが分散していることも倫理的判断を困難にさせている。
人間アクターとしては、開発者・ユーザー・規制当局・コンテンツクリエイターが相互に議論することは難しいし、人工物アクターとして、学習データセット・アルゴリズム・GPUクラスター・APIインターフェースについては異なる階層をなしている。また責任の所在を求めるにしても、制度アクターとしての著作権法・AI倫理ガイドライン・プラットフォーム利用規約の及ぶ範囲が国や企業、団体によって異なるために、同定することが困難である。
こうした状況においては、さまざまな問題点についても、複数の責任主体が混淆することとなる。開発者の設計ミスとされていたバイアスについては、データ収集網とアルゴリズムと社会規範の3者が共犯関係にあることとされ、ユーザーの違法行為と見做されていた著作権侵害も、学習データライセンスと生成物解釈と法解釈の相互作用によるものとなる。情報源の信頼性が担保するとされていた偽情報や誤情報についても、プロンプト誘導とモデル確率計算、拡散メカニズムの連鎖によるものであり、メディア・リテラシーだけでは解決できなくなる。
本稿執筆時点である2025年4月の段階では、2024年8月に適用されたEU-AI法における基盤モデル提供者のCoP(Code of Practice:行動規範)展開も目前である。
またユヴァル・ノア・ハラリ『NEXUS 情報の人類史』(柴田裕之訳/河出書房新社)において、かつてのヨーロッパにおける“鉄のカーテン”に準えて予見した“シリコンのカーテン”は、トランプ大統領の発表した相互関税により、データよりも早く半導体というハード面から実現する蓋然性が高まっている。
ラトゥールのいうANTでは、人間(human)と非人間(non-human)のアクター間の関係性が動的に再編成されるプロセスを“ネットワークの布置変化”という。AIの倫理について考えるとき、いまだ見ぬAGI(Artificial General Intelligence:人工汎用知能)やASI(Artificial Superintelligence:人工超知能)を言祝いだり憂慮したりするのではなく“ゆらぎ”そのものである動的な倫理課題について、やはり動的な解決をはかることに思いを至らせる必要があるのではないかと考える。<了>
NEXUS 情報の人類史
柴田 裕之 訳
河出書房新社
ISBN:978-4309229430