AI開発の最前線を走るAnthropicと米国防総省の間で、AI技術の軍事利用を巡る深刻な対立が法廷に持ち込まれています。国防総省がAnthropicを「国家安全保障上の容認できないリスク」と認定したことに対し、Anthropicは技術的な誤解と交渉経緯の矛盾を指摘し、強く反論する宣誓供述書をカリフォルニア連邦裁判所に提出しました。この訴訟は、AI技術の軍事転用における倫理、政府と民間企業の協力関係、そして言論の自由といった広範なテーマに影響を与える可能性があり、その動向に注目が集まっています。

国防総省の「国家安全保障リスク」認定とその背景
今回の紛争は、昨年夏にAnthropicが国防総省と2億ドル規模の契約を締結したことに端を発します。しかし、今年2月下旬、当時のドナルド・トランプ大統領とピート・ヘグセス国防長官は、AnthropicがAI技術の無制限な軍事利用を拒否したことを理由に、同社との関係を断絶すると公に宣言しました。これに続き、国防総省はAnthropicを「サプライチェーンリスク」に指定。この指定は、アメリカ企業に対して初めて適用される異例の措置であり、その決定の背景には、AI技術の倫理的な利用に関するAnthropicの姿勢が大きく影響していると見られています。
国防総省は、AnthropicのAI技術が国家安全保障上のリスクをもたらす具体的な理由として、「Anthropicが軍事作戦への承認権を要求した」「同社が技術を遠隔で無効化したり変更したりする可能性がある」「外国人社員の雇用がセキュリティリスクとなる」といった点を挙げています。
Anthropicが指摘する国防総省の主張の矛盾点
Anthropicは、裁判所に提出した宣誓供述書の中で、国防総省の主張には複数の矛盾と誤解が含まれていると反論しています。同社の政策責任者サラ・ヘックと公共部門責任者ティヤグ・ラマサミーが、それぞれの専門知識に基づいて政府の主張を詳細に否定しています。
「軍事作戦への承認要求」は虚偽
サラ・ヘックは、国防総省が「Anthropicが軍事作戦への何らかの承認権を要求した」と主張している点について、これを「中心的な虚偽」であると断じています。彼女は、国防総省との交渉期間中、自身を含めAnthropicのいかなる従業員もそのような役割を求めたことはないと明言しています。この主張は、政府の訴訟書類に初めて登場したものであり、Anthropicには反論の機会が与えられなかったと指摘しています。
「技術の遠隔無効化・変更」は技術的に不可能
ティヤグ・ラマサミーは、AnthropicのAIモデル「Claude」が軍事作戦中に無効化されたり、その動作が変更されたりする可能性があるという国防総省の懸念に対し、技術的な観点からこれを否定しています。ラマサミーによれば、Claudeが政府のセキュリティで保護された「エアギャップ」システム内に一度導入されれば、Anthropicはそれにアクセスできません。リモートキルスイッチやバックドア、不正なアップデートをプッシュするメカニズムは存在せず、モデルへのいかなる変更も国防総省の明示的な承認と操作が必要になると説明しています。Anthropicは政府ユーザーがシステムに入力する内容を見ることも、データを抽出することもできないと強調し、「運用上の拒否権」はフィクションであると主張しています。
「交渉はほぼ合意」発言と公表の食い違い
サラ・ヘックの宣誓供述書の中で特に注目されるのは、国防総省の公式なサプライチェーンリスク指定が最終決定された翌日の3月4日、国防次官のエミル・マイケルがAnthropicのCEOダリオ・アモデイに対し、両者が自律型兵器とアメリカ国民の大量監視という2つの主要な問題で「非常に近い」状態にあるとメールで伝えていたという事実です。しかし、そのわずか数日後には、マイケル国防次官はX(旧Twitter)で「国防総省とAnthropicの交渉は活発ではない」と投稿し、さらに1週間後にはCNBCに対し「交渉再開の可能性はない」と発言しています。
ヘックは、もしAnthropicのこれらの問題に対する姿勢が国家安全保障上の脅威であるならば、なぜ国防総省の当局者が指定直後に「ほぼ合意」と述べていたのか、という疑問を投げかけています。これは、政府がこの指定を交渉の切り札として利用した可能性を示唆するものです。
外国人社員の雇用とセキュリティクリアランス
国防総省は、Anthropicが外国人社員を雇用していることがセキュリティリスクにつながるとも主張しています。しかし、ラマサミーはこれに対し、Anthropicの従業員は米国政府のセキュリティクリアランス審査を受けていると反論しています。これは機密情報へのアクセスに必要とされるものと同じ厳格な身元調査プロセスです。さらに、彼の知る限り、Anthropicは機密環境で実行されるAIモデルを実際に構築した唯一のAI企業であると述べており、同社のセキュリティ体制の信頼性を強調しています。

訴訟の核心:言論の自由か、国家安全保障か
Anthropicは、今回のサプライチェーンリスク指定が、AI安全に関する同社の公的な見解に対する政府からの報復であり、憲法修正第1条で保障された言論の自由を侵害するものだと主張しています。これに対し、政府は、Anthropicが技術の合法的な軍事利用をすべて許可しなかったのはビジネス上の決定であり、保護されるべき言論ではないと反論。今回の指定は、同社の見解に対する罰則ではなく、国家安全保障上の真っ当な判断であると主張しています。
この訴訟は、AI開発企業が自社の技術の利用方法について倫理的な立場を取る権利があるのか、それとも国家安全保障上の要請がそれを上回るのかという、現代社会における重要な問いを投げかけています。AI技術が社会のあらゆる側面に深く浸透していく中で、その開発と利用における倫理的ガイドラインと国家の安全保障とのバランスをどのように取るべきか、という議論の核心を突くものと言えるでしょう。
読者への影響と今後の展望
Anthropicと国防総省の間のこの訴訟は、単なる一企業と政府の争いにとどまらず、AI業界全体、そして社会全体に大きな影響を与える可能性があります。この裁判の結果は、AI開発企業が自社の技術の利用方法についてどの程度の倫理的裁量を持つべきか、また、国家安全保障上の懸念が民間企業の技術開発の自由にどこまで介入できるのかという、重要な先例を確立することになるでしょう。
特に、AI技術の軍事転用における倫理的ジレンマは、世界中で議論されているテーマです。自律型兵器や監視技術へのAIの応用は、その潜在的な破壊力と倫理的な問題から、多くの懸念が表明されています。この訴訟は、AIの安全な利用と開発を巡る議論をさらに深化させ、将来のAI規制や政府調達におけるリスク評価のあり方に大きな影響を与えることが予想されます。透明性と信頼性に基づいた政府と民間企業の協力関係を構築するためにも、この裁判の行方は極めて重要ですいです。
情報元:TechCrunch

