戦争と政治における心理・情報戦略は私たちを誘引する

REVIEWおすすめ
テキスト 都築 正明
IT批評編集部

第2次世界大戦でエニグマ暗号機により作成された暗号をアラン・チューリングが解読したエピソードをはじめ、計算機科学や心理戦は政治や戦争に大きな役割を果たしてきた。火力兵器は遠方の敵を攻撃するよう発展してきたものの、サイバー戦略や心理戦は、より近くの人々にも射程を合わせるようになってきている。

 

 

目次

良心を超える軍事技術

世界で開発される“忠実で賢い”兵器

マイ・フェア・レディは機械仕掛け

敵を味方に、味方を敵にする心理プロファイリング

AI法でも軍事・防衛利用は規制適用外に

ヒューマニズムにとどまらない倫理とは

 

 

 

 

 

 

 

良心を超える軍事技術

 

米国陸軍中佐を経て心理学・軍事社会学および軍事学を研究するデーヴ・グロスマンは『戦争における「人殺し」の心理学』(デーヴ・グロスマン 著 , 安原 和見 翻訳 ちくま学芸文庫) において、ギリシア・ローマ時代からアフガン紛争に至るまでの戦争について詳細なデータ検証を行い、人はもとより殺人について強い心理的忌避感を抱いていることを結論づけた。データから導き出されたのは、20世紀中盤までの戦争で、人が人に銃口を向ける確率は、多くても15%〜20%に留まってきたということだ。いかに大義を背負った軍隊といえども、戦場において80%以上は空砲が撃たれてきたということになる。第2次世界大戦中、アメリカ陸軍公認の歴史家であったS.L.A.マーシャルは交戦直後の兵士へのグループヒヤリングを通じてもこれを明らかにした。

のちに彼の調査手法やその結果に疑義も呈されたが、実際にこの結果をもとに、それ以降の軍事訓練が兵士への心理操作に移行したことは看過できない。朝鮮戦争では発砲率は55%、ベトナム戦争では90%〜95%へと遷移する。これを可能にした方法は大きく2つある。1つはそれまでも行われてきた脱感作、つまり殺人を観念化して感覚を麻痺させることである。相手を非人称化すること――ここに記すのは憚られるような民族への侮蔑語の数々は、おしなべて同質のものといってよい。もう1つは条件づけ。動物行動学者パブロフの発見した生理的反応にもとづく古典的条件づけと、スキナーにより無関係な事象を関連づけて学習するオペラント条件づけの双方を用いることで、考える隙もなく身体が反応するよう仕向けることができる。敵に見立てた的が現れるやいなや銃爪を引くことを通じて、実践でも同じ動作が繰り返されるようにするわけだ。ここから看取できるのは、認知を欺く対象が、敵ではなく自国の兵士へと移行していることだ。この訓練は、暴力の対象でなく、暴力をふるう主体の心理へと向けられる。

 

戦争における「人殺し」の心理学
デーヴ・グロスマン 著 , 安原 和見 翻訳
ちくま学芸文庫
ISBN:4-480-08859-8

 

 

 

 

世界で開発される“忠実で賢い”兵器

 

火力兵器が遠隔化したように、AI兵器は戦闘の心理的負担を軽減するように擬制する。

2020年、アメリカ空軍は自軍のエースパイロットとAIとが仮想空間上で空中戦を行う映像を公開した。5回の疑似演習を行い、結果はAIが全勝。高度かつ長期間の訓練を要するパイロットの経験を、膨大な学習データに基づくAIのシミュレーションが凌駕することを明らかにした。その後、実機を用いた演習も陸続と行われている。2021年12月には、米国防総省の国防高等研究計画局(DARPA)が、カリフォルニア州のエドワーズ空軍基地で、F16戦闘機をAIが操縦するよう改造したテスト機の飛行を行った。数日間にわたって出撃を想定した離着陸や武器の使用を試したという。2023年には、アメリカ空軍研究所(AFRL)がステルス無人戦闘機「XQ-58Aヴァルキリー」が、人工知能を用いた飛行に成功したことを明らかにした。同機に搭載されたコンピュータシステムは機械学習で訓練されたAIアルゴリズムにより、指令に従う最適な飛行経路とスロットルの設定を決定するという。

有人機の指揮下で戦闘を行う半自律型の無人戦闘機はロイヤル・ウイングマン(Royal Wingman:忠実な編隊僚機)と称され、アメリカだけでなくオーストラリアやイギリスでも開発が進められている。また日本の自衛隊も、新型ステルス戦闘機の開発とともに、ロイヤル・ウイングマン型の無人機の開発を進めており、アメリカと協力を進めることに合意している。

AI兵器開発は権威主義国家においても進められている。2023年3月には、中国航空力学研究開発センター(China Aerodynamics Research and Development Centre)の研究者が同年2月にAI機と人有人機が実戦を想定した格闘戦を行い、AI機が勝利したという論文が中国航空学会誌「Acta Aeronautica et Astronautica Sinica(航空学報)」に発表された。中国ではAIの軍事利用についての論文が数多く提出されているほか、2018年より北京技術研究所が優秀な高校卒業生をリクルートし、AI兵器開発に携わるBIT(Beijing Institute of Technology)プログラムを実施するなど、AI兵器の開発に前向きな姿勢をみせている。ロシアのプーチン大統領は2017年、同国教育機関の新学期スタートに寄せた講演で「AIを制する者が世界を制する」と発言し、研究支援や人材育成などを進めている。

 

 

マイ・フェア・レディは機械仕掛け

 

脱感作と条件づけによって引き起こした行動について、人間の心理が無反応なわけではない。実際にベトナムから帰還したアメリカ軍の兵士たちは、こぞってPTSDに悩まされることとなった。1つには命を奪ったという事実に直面した個人として、もう1つは長引いた戦争のうちに芽生えた反戦ムードによる世間的な非難によってである。彼らの心理的恢復と社会復帰のためには、心理カウンセリングが必要だった。しかし臨床心理学者カール・ロジャーズが確立した来談者中心のカウンセリング技法は当時まだノウハウも人材も不足しており、多くの患者に対応することは不可能だった。

こうした背景のもと1966年に当時MITで計算機科学を教えていたジョセフ・ワイゼンバウムにより考案されたのが、機械が事前にプログラムした想定問答に応じて患者に応答するシステムELIZA(イライザ)である。いわば最初期のチャットボットだが、クライアントには機械であることは知らされていなかった。強化学習機能やネット検索機能を搭載しない、人工知能にたいし“人工無能”といわれるプログラムではあるが、クライアントは積極的に自己開示を行い、その姿にワイゼンバウム自身が驚いたという。さきに記した非人称化の脱感作とは逆に、人は知的なものを感じると、そこに意思を見出そうとする性向があるらしい。これは現在においても変わらないようだ。生成AIが登場した当初は、誤っていたり不自然だったりする回答内容が盛んにあげつらわれたものの、いま私たちの多くはネットニュースのAI要約やSNS上のボットユーザーを違和感なく読み流しているのが実状だ。ワイゼンバウムは人々がプログラムとの会話に没入する“ELIZA効果”で得た経験から、AIに意思決定を任せるべきでないとする批判を行うようになった。

ELIZAという呼称はミュージカル「マイ・フェア・レディ」の原作であるバーナード・ショーの戯曲『ピグマリオン』の登場人物イライザ・ドゥーリトルにちなむ。ミュージカルは、下町の娘だったイライザを言語学者ジャック・ヒギンズが上流階級にふさわしい話しかたとマナーを身につけさせて結ばれるというシンデレラ・ストーリーだが、階級社会への風刺として描かれたショーの戯曲では淑女としての振る舞いを身につけたイライザは、ほかの男性と結婚すると言い残してヒギンズのもとを去り、ヒギンズはいつしか抱いていたイライザへの愛情が失われたことを実感する。この関係を現代に持ち込み、AIボットやアバターと人間との関係に敷衍すると、きわめて皮肉な結末を予見することになりそうだ。

精神医学においては、クライアントが治療者に、愛憎の感情を抱くことを「転移」と呼ぶ。精神療法において、クライアントは過去の経験や他者への感情を含む自己開示を行うため、その過程で治療者その人に特別な感情を抱きやすい。もちろん治療者がクライアントに個人的感情を抱くことは、医療倫理として強く戒められている。しかしAIボットやアバター相手であればどうだろう。多くの人にとってVTuberなどに“ガチ恋”することは絵空事のように思えるかもしれないし、コンテンツを離れてから架空のキャラクターに感情移入することも現実的ではないかもしれない。しかし意図せずにアルゴリズムにより選択されたコンテンツや、生成されたメッセージであったりすれば、自己開示のブレーキがかからないことは容易に想像される。PCやスマートフォンを手にしたことがある人なら、フィルターバブルやアテンション・エコノミーから自由になれないことを自覚しているだろう――もし自覚していなければ、残念ながらどっぷりそこに浸かっていることになる。

 

 

敵を味方に、味方を敵にする心理プロファイリング

 

敵に向けられていた心理的トラップが、自軍に向けられた次はどこが標的になるか。それはより身近な市民1人ひとりである。カール・シュミットが『政治的なものの概念』(カール・シュミット 著 , 権左武志 訳 岩波文庫)で論じたような、混乱のなかの例外状況を擬制しつつ、そのなかで味方と敵を峻別する友-敵理論が持ち込まれる。そこで生じるのは、恣意的な分断だ。

かつてこうした操作は中傷ビラを撒くことで行われていたが、ネットの登場により大規模かつ効率的に行うことが可能になった。そこで用いられるのは個人の心理をターゲットに情報操作を行う「マイクロ・ターゲティング」の手法だ。まず個人の情報や行動特性から認知バイアスを推定してターゲット層を絞る。そのうえでそれぞれの層に影響を及ぼしやすいメッセージを集中して流し、個人の認知的不協和を促す。その後、認知的不協和へのワクチンとして対抗ナラティブを投下するというスキームだ。ネットのアクセス履歴などのビッグデータと機械学習を用いて個人ごとの心理プロファイリングを用いれば、これを集中的かつ効果的に実行することが可能になる。

1990年にコンサルティング会社としてイギリスで発足したSCL(Storategy Communication Laboratories:戦略的コミュニケーション研究所)は、主に軍部をクライアントとしてNATOの対テロ工作に関わってきた。2010年代からは、選挙活動への介入を請け負うこととなる。ベンチマークとしたのはアメリカのデータマイニング企業パランティア・テクノロジーズ。米軍、国防総省、FBI、CIAなどを顧客に抱え、機密案件を数多く扱っていることでも知られているこの企業を創設したのは前々回でも紹介したピーター・ティールだ。多くのテック企業に出資する投資家であり「自由と民主主義は両立しない」と主張するリバタリアンでもあるティールは、シリコンバレーのテック企業のCEOを「テクノ封建主義体制の君主」と称したこともある。SCLは、携帯電話の通話記録やSNS上のデータを用いてトリニダード・トバゴでスパイ活動を実施する。ここで成功体験を得た同社は、アフリカの国々で選挙運動のプロジェクトに介入することになる。市民の不安と憎悪を煽りつつアイデンティティを操作するノウハウを重ねていったのだ。

当時アメリカの保守ニュースメディア「ブライトバート・ニュース」の執行役員だった――のちにドナルド・トランプ大統領選の最高責任者となる――スティーブ・バノンが新たなクライアントになったことで、SCLの活動はさらに巨大化・深刻化することとなる。アメリカでの事業展開のためにケンブリッジ・アナリティカ(CA)を設立し、Facebook上に設けた性格診断アプリを経由して、回答者ならびにその友人を含む8,700万人の個人データを取得し、不正に得たその他の機密情報と照合しつつ解析し、心理操作を行う。典型的には、オルタナ右翼と親和性の高いインセル(involuntarily celibrate:非自発的禁欲者)男性――日本でいう“非モテ”や“弱者男性”とニュアンスが近い――がポリティカル・コレクトネスのもとで秘めた女性嫌悪や同性愛嫌悪、人種差別感情をあぶり出し、顕在化する例がある。バノンは2016年の大統領選で共和党候補のドナルド・トランプの選挙対策本部長に任命され、白人労働者層の取り込みと民主党へのネガティブ・キャンペーンを流布させる。ヒラリー・クリントンがオフィシャルなメールアドレスを私的に利用したことをきっかけに、CAとコネクションを持つロシアの諜報機関が民主党サイトをハッキングしたことは、のちに大きく問題化された。ハッキングされて流出したクリントン陣営の選挙責任者であったジョン・ポデスタの私的メールの内容は、民主党関係者がピザ店を拠点として人身売買や児童性的虐待を行っているという虚偽情報にミスリードされ、名指しされたピザ店が銃撃されるという事態を引き起こした。その他大量の民主党陣営の情報がWikileaksに掲載されたことから、ジュリアン・アサンジとCAやロシアの関係についても疑義が呈された。いずれにせよ、2016年11月にドナルド・トランプは選挙人獲得数により大統領に指名された。これは得票数で対立候補を下回っての勝利という、ジョージ・ブッシュ以来2回目となる異例なものだった。

またCAはブリグジットにあたっても離脱派をクライアントとして同様の心理プロファイリング戦を展開している。大英帝国時代を回顧する白人保守層だけでは国民投票に勝利することができないと考えたCA側は、有色移民をターゲットにおいて離脱派に取り込むことを画策した。「現在のイギリスはEUからの移民は受け入れるが、それ以外の移民は排斥する」というのが、そこで用いられたロジックである。かくして、白人至上主義の愛国主義者と植民地国にルーツを持つ移民コミュニティとが手を結んでともにEUからの離脱を目指すという不思議な離脱派連合が誕生し、残留派と対抗することとなる。両陣営の緊張はエキサイトし、国民投票を1週間後に控えた2016年6月16日に残留派の労働党下院議員ジョー・コックスが白人至上主義者に射殺されるという事態におよぶ。両陣営は3日間運動を控える休戦協定を結んだものの、CAは傘下のカナダ企業AIQからデジタル広告を流し続けた。6月23日の国民投票では、離脱支持が52%、残留支持が48%という僅差でイギリスのEU離脱が決定した。

 

政治的なものの概念
カール・シュミット 著 , 権左武志 訳
ISBN9784003403020
岩波文庫

 

 

 

AI法でも軍事・防衛利用は規制適用外に

 

ChatGPTのリリースに端を発する生成AIの急速な認知と普及から、いよいよ人間による入力を要しない自律性を持ったAGI(Artificial General Intelligence:汎用人工知能)が登場するのではないかという話題も――ネガティブ/ポジティブの両面から――多く聞かれるようになった。それが可能かという技術論はさておき、暗号解読やミサイルの弾道計算を出自とするコンピュータ科学の延長線上に、自律型致死兵器システム(LAWS: Lethal Autonomous Weapons Systems)が登場する不安は拭えない。2024年3月に議会承認されたEUのAI Actは世界初の包括的なAI規制として近く施行される見通しだが、同法で最高のリスクに位置づけられるLAWSは、フランスやドイツ、イタリアの強硬な主張により、軍事や防衛目的については規制の適用外として国際法に委ねることになっている。

AIの自律性については措くとしても、既存の技術も例外ではない。パレスチナ自治区ガザ地区におけるイスラム組織ハマスとの戦闘においては、イスラエルで“ラベンダー”というAIが用いられていることが報じられた。このAIは、ガザの市民約230万人を対象に、GPSや携帯の通信記録、車両の移動をはじめとするビッグデータを学習し、ハマス工作員との関連度合いを100段階でレーティングしているという。精度は約90%といわれ、最終判断は人間がくだすものの、リストの確認から承認までに要した時間が数十秒だったケースもあるという。

この報に接し、グテーレス国連事務総長は「AIは世界に恩恵をもたらす善の力として活用されるべきであり、産業レベルで戦争に加担して説明責任を曖昧にする目的で使用されるべきではない」「生と死の決定のいかなる部分も、アルゴリズムの冷徹な計算に委ねられるべきではない」と懸念と不快感を表明している。

イスラエル軍の発表によると、ガザ地区には戦闘開始からの5日間だけで約4,000トンの爆弾が投下されたという。これは第2次世界大戦時の東京大空襲の約3倍にあたる規模らしい。1945年3月10日の東京大空襲の対象は1,450万人、死者は12万人である。ガザ保健当局は21日、イスラエル軍の攻撃によるガザの死者数が3万4,000人を超えたこと、またその約40%が子どもであると発表した。“ラベンダー”の精度が90%だとしても、ハマスとは無関係な10%が対象になることは看過できないし、関与率が高いとして子どもが犠牲になることも深刻な問題だ。これは攻撃にいたった経緯やレーティングの妥当性を考慮に入れないという留保を置いたうえでの話である。

もとよりイスラエルは、サイバー大国として知られている。その名を知らしめたのが、2010年9月にイランのウラン濃縮施設で約1,000台の遠心分離機を破壊し、8,000台に及ぶすべての遠心分離機を停止させた“スタックスネット”というコンピュータ・ウイルスだった。これは単体で自己増殖を繰り返すワームで、コンピュータのデータを破壊したり、システムを混乱させたりするものとは異なり、遠心分離機の制御システムそのものを乗っ取ってしまうもので、かつ計器類は正常値を示すようプログラムされていた。驚異的なのはそのプログラムのステップ数で、通常のウイルスが1,000行程度であるのにたいし、数十万行にもおよぶ巨大なものだった。標準的なソフトウェア・エンジニアの生産性が1人1カ月1,000ステップ前後とされていることを考えると、いかに多くのコストを投じたかという規模感に圧倒される。2010年6月にベラルーシで最初に発見されたこのワームについては、2012年6月にニューヨーク・タイムズがアメリカNSA(National Security Agency:国家安全保障局)と、NSAに匹敵する諜報機関とされるイスラエル軍8200部隊とがイラン攻撃用に共同で作成したと報じ、元NSAおよびCIA(Central Intelligence Agency:中央情報局)職員のエドワード・スノーデンも、2013年に同様のことを語っている。スノーデンは“PRISM”と呼ばれる国際監視網を用いて世界中の通信情報を傍受していることを明らかにした人物である。

 

 

ヒューマニズムにとどまらない倫理とは

 

不確実性下における意思決定についての考えかたについては、2024年3月に物故した心理学者ダニエル・カーネマンがエイモス・トベルスキーとともに提唱したプロスペクト理論や行動経済学の文脈で理解することは可能である。そして、IT技術やAIをめぐる議論は、氾濫する情報に惑わされず、冷静な判断力を養うことが重要だという教科書的な文言で結ばれることが多い。同じくシステムやアーキテクチャについても、あくまでもツールにすぎないから人間が適正な判断を行うべきだ、とも。もちろん、合理的判断や倫理観を持ち合わせることが重要なのは間違いない。また自由意志や志向性を持たない人工物を責任主体とみなすのも、原始的アニミズムと変わらない発想である。しかし、人とテクノロジーが相互浸透する現在において、倫理的な行為を遂行するにあたって技術を無視することも、また困難なように思われる。

ポスト現象学の立場をとる哲学者ピーター・ポール・フェルベークは著作『技術の道徳化』(ピーター=ポール・フェルベーク著, 鈴木 俊洋訳 法政大学出版局)をはじめとした著作において、ブリュノ・ラトゥールやドン・アイディ、そしてミシェル・フーコーの倫理へのアプローチを参照しつつ、社会の中で人間と技術の双方を位置づけて、ヒューマニズムに留まらない技術哲学にチャレンジしている。「悪者探し」は自己正当化のロジックだし、リアリズムは現状追認のことではない。遠い未来でなく、今あるできごとに対峙すること。それが倫理的な態度であり、解決策をさぐる糸口になるのだろう。

 

技術の道徳化 事物の道徳性を理解し設計する
ピーター=ポール・フェルベーク:著, 鈴木 俊洋:訳
法政大学出版局
ISBN978-4-588-01033-0