軍事請負業者Palantirが、AI企業Anthropicのチャットボット「Claude」を米軍事・情報機関向けソフトウェアに統合し、戦争計画の生成に活用している実態がWIREDの調査によって明らかになりました。この動きは、AIが軍事作戦の意思決定プロセスに深く関与する新たな時代の到来を告げるものですが、同時にAIの倫理的利用や自律型兵器化への懸念も浮上しています。
特に注目されるのは、Anthropicが自社AIモデルの無条件アクセスを拒否し、大量監視や完全自律型兵器への使用を制限しようとしたことに対し、米国防総省がAnthropic製品を「サプライチェーンリスク」と認定したという背景です。この対立は、AI技術の進化と、その利用を巡る倫理的・政治的緊張を浮き彫りにしています。
PalantirとAnthropicの提携の背景
2024年11月、PalantirはAnthropicのClaudeを米国の情報・防衛機関に販売するソフトウェアに統合すると発表しました。Palantirは、この統合によりアナリストが「データ駆動型の洞察」を発見し、パターンを特定し、「時間的制約のある状況での情報に基づいた意思決定」を支援できると説明しています。しかし、Claudeが軍事内でどのように機能しているか、どの国防総省システムがそれに依存しているかについては、これまで詳細がほとんど明かされていませんでした。
WIREDがPalantirのソフトウェアデモ、公開文書、国防総省の記録をレビューした結果、米軍関係者がAIチャットボットをどのように利用しているか、どのようなクエリが入力され、どのようなデータに基づいて応答が生成され、どのような種類の推奨事項がアナリストに提供されているかについて、これまでで最も明確な全体像が示されました。
AIチャットボット「Claude」の具体的な軍事利用
Project MavenとMaven Smart System
Palantirは2017年以来、国防総省のAI展開イニシアチブである「Project Maven」の主要請負業者を務めています。このプロジェクトのために開発された「Maven Smart System(Maven)」は、国家地理空間情報局(NGA)によって管理され、陸軍、空軍、宇宙軍、海軍、海兵隊、そしてイランでの軍事作戦を監督する米中央軍を含む、軍全体で利用されています。
Mavenは、衛星などの「宇宙ベースの資産」から取得した画像にコンピュータービジョンアルゴリズムを適用し、自動的に「敵システム」と見られる物体を検出できます。デモでは、人と車を区別する機能や、潜在的なターゲットを視覚化し、地上または空中爆撃の「候補」として推薦する機能が示されました。さらに、「AIアセットタスキングレコメンダー」と呼ばれるツールは、どの爆撃機と弾薬をどのターゲットに割り当てるべきかを提案することも可能です。
Palantir Artificial Intelligence Platform (AIP) の役割
Palantirの比較的新しい商用製品である「Artificial Intelligence Platform(AIP)」は、既存のFoundryやGothamといったシステム内で使用できるアプリケーションです。AIPは特定のタスクを自動化できるだけでなく、AIP AssistantまたはAIP Agentと呼ばれるチャットボットを提供し、ユーザーが質問したり、より大きなシステム内でタスクを完了させたりすることができます。
AIP AssistantはAnthropic、Google、Metaなどのサードパーティ製大規模言語モデル(LLM)によって駆動され、顧客は使用するモデルや、応答生成に使用するトレーニングデータを選択できます。これは、機密情報が扱われる情報・国家安全保障の現場で特に価値がある機能です。
2023年のPalantirのデモでは、AIP Assistantが「東ヨーロッパでの活動を監視する軍事オペレーター」が、チャットボットとの対話を通じて複数の戦車に対する地上攻撃を計画・命令する様子が示されました。
- AIP Assistantがレーダー画像のAI処理を通じて「潜在的な異常な敵活動」を自動で警告。
- ユーザーが「この地域の敵軍事部隊は何か?」と尋ねると、AIP Assistantは「装備のパターンから見て、装甲攻撃大隊である可能性が高い」と推測。
- アナリストはMQ-9リーパー無人偵察機による偵察を要請。
- AIP Assistantに「この敵装備を標的とする3つの行動方針を生成せよ」と指示すると、数秒以内に「航空資産」「長距離砲」「戦術チーム」による攻撃オプションを提案。
- アナリストはAIP Assistantに「戦場を分析し、敵に到達するためのルートを生成し、通信機器を妨害するためにジャマーを割り当てよ」と指示。
- 数秒後、アナリストは最終的な戦闘計画を確認し、部隊に動員を命令。
このシナリオでは、ClaudeがAIP Assistantの「声」となり、応答を生成するための「推論」を提供するとされています。他のAIPデモでは、NATOがAIP AgentをMaven Smart System内で使用し、GPT-4.1などのAIモデルが5つの軍事戦略を生成する様子や、衛星画像を解釈し、次の行動を提案する様子も示されています。
さらに、Claudeは軍事目的のインテリジェンス評価の作成にも利用される可能性があります。Anthropicの公共部門担当リーダーであるKunaal Sharma氏によるデモでは、Claudeのエンタープライズ版が、ウクライナのドローン攻撃「Operation Spider’s Web」に関する「高度な」報告書を生成する様子が披露されました。Sharma氏は、通常5時間かかるような情報収集と報告書作成が、Claudeを使えば大幅に短縮されると説明しています。
AIが軍事作戦に与える影響と課題
AIチャットボットの軍事利用は、情報分析の高速化と作戦計画立案の効率化という大きなメリットをもたらします。時間的制約のある状況下での迅速な意思決定は、戦術的な優位性を生み出す可能性があります。しかし、その一方で、AIの判断への過度な依存や、自律型兵器化への懸念といった深刻な倫理的課題も浮上しています。
AIが生成した計画に基づいて人間が最終決定を下すとしても、AIの「推論」が意思決定プロセスに深く組み込まれることで、責任の所在が曖昧になる可能性も指摘されています。また、AI企業と政府の間で技術の利用範囲を巡る緊張関係が生じていることは、高度なAI技術を社会がどのようにコントロールしていくべきかという、より大きな問いを投げかけています。
この技術の進展は、軍事・防衛関係者だけでなく、AI倫理や国際情勢に関心を持つすべての人々にとって、その動向を注視すべき重要なテーマです。AIが戦争のあり方を根本的に変える可能性を秘めているからこそ、技術の進化と並行して、その利用に関する倫理的・法的・社会的な議論を深めていくことが不可欠となるでしょう。
情報元:wired.com

