情報戦略は私たちを誘引する
戦争と政治における心理

REVIEWおすすめ
テキスト 都築 正明
IT批評編集部

マイ・フェア・レディは機械仕掛け

AI法でも軍事・防衛利用は規制適用外に

ChatGPTのリリースに端を発する生成AIの急速な認知と普及から、いよいよ人間による入力を要しない自律性を持ったAGI(Artificial General Intelligence:汎用人工知能)が登場するのではないかという話題も――ネガティブ/ポジティブの両面から――多く聞かれるようになった。
それが可能かという技術論はさておき、暗号解読やミサイルの弾道計算を出自とするコンピュータ科学の延長線上に、自律型致死兵器システム(LAWS: Lethal Autonomous Weapons Systems)が登場する不安は拭えない。2024年3月に議会承認されたEUのAI Actは世界初の包括的なAI規制として近く施行される見通しだが、同法で最高のリスクに位置づけられるLAWSは、フランスやドイツ、イタリアの強硬な主張により、軍事や防衛目的については規制の適用外として国際法に委ねることになっている。

AIの自律性については措くとしても、既存の技術も例外ではない。パレスチナ自治区ガザ地区におけるイスラム組織ハマスとの戦闘においては、イスラエルで“ラベンダー”というAIが用いられていることが報じられた。
このAIは、ガザの市民約230万人を対象に、GPSや携帯の通信記録、車両の移動をはじめとするビッグデータを学習し、ハマス工作員との関連度合いを100段階でレーティングしているという。
精度は約90%といわれ、最終判断は人間がくだすものの、リストの確認から承認までに要した時間が数十秒だったケースもあるという。

この報に接し、グテーレス国連事務総長は「AIは世界に恩恵をもたらす善の力として活用されるべきであり、産業レベルで戦争に加担して説明責任を曖昧にする目的で使用されるべきではない」「生と死の決定のいかなる部分も、アルゴリズムの冷徹な計算に委ねられるべきではない」と懸念と不快感を表明している。

イスラエル軍の発表によると、ガザ地区には戦闘開始からの5日間だけで約4,000トンの爆弾が投下されたという。
これは第2次世界大戦時の東京大空襲の約3倍にあたる規模らしい。
1945年3月10日の東京大空襲の対象は1,450万人、死者は12万人である。ガザ保健当局は21日、イスラエル軍の攻撃によるガザの死者数が3万4,000人を超えたこと、またその約40%が子どもであると発表した。
“ラベンダー”の精度が90%だとしても、ハマスとは無関係な10%が対象になることは看過できないし、関与率が高いとして子どもが犠牲になることも深刻な問題だ。これは攻撃にいたった経緯やレーティングの妥当性を考慮に入れないという留保を置いたうえでの話である。

もとよりイスラエルは、サイバー大国として知られている。その名を知らしめたのが、2010年9月にイランのウラン濃縮施設で約1,000台の遠心分離機を破壊し、8,000台に及ぶすべての遠心分離機を停止させた“スタックスネット”というコンピュータ・ウイルスだった。これは単体で自己増殖を繰り返すワームで、コンピュータのデータを破壊したり、システムを混乱させたりするものとは異なり、遠心分離機の制御システムそのものを乗っ取ってしまうもので、かつ計器類は正常値を示すようプログラムされていた。
驚異的なのはそのプログラムのステップ数で、通常のウイルスが1,000行程度であるのにたいし、数十万行にもおよぶ巨大なものだった。標準的なソフトウェア・エンジニアの生産性が1人1カ月1,000ステップ前後とされていることを考えると、いかに多くのコストを投じたかという規模感に圧倒される。
2010年6月にベラルーシで最初に発見されたこのワームについては、2012年6月にニューヨーク・タイムズがアメリカNSA(National Security Agency:国家安全保障局)と、NSAに匹敵する諜報機関とされるイスラエル軍8200部隊とがイラン攻撃用に共同で作成したと報じ、元NSAおよびCIA(Central Intelligence Agency:中央情報局)職員のエドワード・スノーデンも、2013年に同様のことを語っている。
スノーデンは“PRISM”と呼ばれる国際監視網を用いて世界中の通信情報を傍受していることを明らかにした人物である。

1 2 3 4 5 6