2026年3月9日、Anthropicは米国防総省(DOD)を相手取り、2件の連邦訴訟を提起した。発端は、ペンタゴンが同社を「サプライチェーンリスク」に指定したこと。この指定は通常、敵対的な外国企業に向けられるものであり、米国の民間AI企業への適用は極めて異例と報じられている。
事態の発端:交渉の決裂
訴状や複数の報道によれば、対立の火種は2026年2月24日前後にDario Amodei CEOと国防長官Pete Hegsethの会談が決裂したことにあるとされる。なお、Anthropicの公式声明は「ここ数日にわたり建設的な対話があった」と述べるにとどまり、会談の日付や詳細については公式には確認されていない。
Anthropicの訴状および報道によれば、交渉の焦点は2つの「レッドライン」だったとされる(以下の整理はAnthropicの主張に基づく)。
| Anthropicの立場(訴状・報道ベース) | DODの要求(同) |
|---|---|
| 自律兵器への使用禁止(人間の判断を介さない標的選定・射撃は不可) | 「あらゆる合法的目的」への無制限アクセス |
| 米国市民の大規模監視への使用禁止 | 民間企業によるアクセス制限の拒否 |
報道によれば、Hegseth長官側は「民間請負業者にAIの利用範囲を制限させるべきではない」と主張。一方Amodei CEOは「Claudeは自律的に人を殺す兵器システムの準備ができていない」として譲歩を拒んだとされる。
ペンタゴンの報復:サプライチェーンリスク指定
会談決裂から約2週間後、国防総省はAnthropicを「サプライチェーンリスク」に指定した。
このラベルの異例性は際立っている。
- 通常の適用対象:中国・ロシアなど外国の敵対企業(Huawei、ZTEなど)
- 今回の対象:サンフランシスコに本社を置く米国の民間AI企業
法的専門家によれば、この法的枠組みを国内企業に対して使用することは、その立法意図を大幅に逸脱しているという。
財務的影響
Anthropicは訴状の中で、この指定によって「現在および将来の民間契約も危うくなっており、近い将来に数億ドルの収益が損なわれる恐れがある」と主張した。
二本立て訴訟:法的根拠
Anthropicは3月9日、2つの連邦裁判所に訴状を提出した。
訴訟1(北カリフォルニア連邦地裁):
- 主な主張:修正第一条(表現の自由)の侵害
- 論拠:政府がAnthropicの安全ポリシーを理由に報復した
訴訟2(ワシントンD.C.連邦控訴裁判所):
- 主な主張:サプライチェーンリスク指定制度の適用範囲を超えた違法行為
- 論拠:同法は外国の脅威を対象としており、国内企業への適用は立法意図に反する
Anthropicは差止命令を求めており、「この指定を停止しなければ、AIの安全責任に関する業界スタンダード自体が脅かされる」と警告した。
業界が結束:競合他社の異例の連帯
最も注目すべきは、この訴訟への業界の反応だ。
30名超のOpenAI・Google DeepMind社員が支持声明:
3月9日、OpenAIおよびGoogle DeepMindの社員30名以上が、Anthropicを支持するアミカスブリーフ(法廷意見書)に署名した。署名者にはGoogleのチーフサイエンティストJeff Deanも含まれる。
声明文の核心:
「Anthropicをサプライチェーンリスクとする政権側の指定は、不当かつ恣意的な権力行使であり、我々の業界全体に深刻な影響をもたらす」
Microsoftも支持声明を提出:
Microsoftはアミカスブリーフを提出し、「もし政府がこの行動を続けることを許されれば、米国のAI産業・科学競争力に計り知れない悪影響を与える」と警告した。
競合他社が連帯する理由
今回の連帯は純粋な慈善ではない。業界各社にとって「今日のAnthropicは明日の自分たちかもしれない」という危機感がある。
| 懸念事項 | 影響 |
|---|---|
| 政府によるAI利用制限の先例 | すべてのAI企業の自社安全ポリシーが形骸化するリスク |
| サプライチェーンリスク指定制度の拡大解釈 | 倫理的判断を下した企業への報復手段として乱用される可能性 |
| AI人材の逃避 | 政府との対立を恐れた優秀な研究者が業界から離れるリスク |
何が問われているのか
AI安全性 vs. 軍事的有用性
この訴訟の根本にあるのは、AI開発における本質的な緊張関係だ。
- 軍事・政府の論理:「最強のAIを最大限に活用すべき。倫理制約は非効率」
- AI安全性の論理:「信頼性が確認されていないAIに人命の決定を委ねるべきでない」
Anthropicが掲げる「Constitutional AI」の原則——AIに倫理的価値観を組み込む——は、まさにこの対立の最前線に立たされている。
「安全に有益なAI」という企業理念の試練
Anthropicの企業ミッションは「AIが安全かつ有益であることを保証する」こと。今回の訴訟は、その理念を守ることのコストを突きつけている。数億ドルの政府契約を失う可能性があってもなお、自律兵器・大量監視への使用を拒否するというのは、建前ではなく実際のビジネス判断として機能しているといえる。
国防AI契約市場:急拡大する争奪戦
今回の対立が起きた背景には、急速に巨大化する国防AI市場がある。
| 指標 | 金額・規模 |
|---|---|
| ペンタゴンFY2026 AI関連予算(推計) | 約134億ドル(前年の約18億ドルから大幅拡大) |
| FY2025 AI予算 | 約18億ドル |
| ペンタゴンIT・サイバー予算全体 | 661億ドル |
| 国防総省予算総額 | 9,006億ドル |
| 世界の防衛AI市場(2029年予測) | 約228億ドル |
FY2026の国防AI関連予算が前年から大幅に拡大したと推計されることは、各AI企業にとって国防省との関係が今後のビジネスを大きく左右することを意味する。Anthropicが失ったとみられる政府契約はその一部に過ぎないが、「前例」が与える影響は財務的な損失にとどまらない。
OpenAIが同じ契約を獲得
報道によれば、AnthropicがDODとの交渉決裂後、OpenAIが同一のペンタゴン契約を受注したとされる。Sam Altman CEOは「監視や自律殺傷への使用禁止」を一定の赤線として明言しつつ、契約では「該当する法律の範囲内」という表現にとどめ、Anthropicより柔軟な立場で合意に達した。
OpenAI・Google・Anthropicの安全ポリシー比較
3社の国防・軍事利用に関するスタンスは微妙に異なる。
| 項目 | Anthropic | OpenAI | |
|---|---|---|---|
| 自律兵器への使用 | 契約上の禁止を要求 | 法律に準じた禁止(契約文言は柔軟) | 公式方針は未公表 |
| 大規模監視への使用 | 契約上の禁止を要求 | 「米国市民への意図的使用禁止」と明記 | 社員1,000名超が公開書簡で反対 |
| 軍事・戦争用途の明示禁止 | 維持 | 2024年に利用規約から削除 | 非公表 |
| 今回のDODとの関係 | 交渉決裂→提訴 | 同契約を受注 | 社員がAnthropicを支持 |
注:各社の公式ポリシーは随時更新されるため、最新情報は各社の利用規約を参照のこと。
この比較が示すのは、「AI安全」を掲げる各社が、実際には微妙に異なる線引きをしているという現実だ。OpenAIはより広い用途を認める代わりに大型契約を確保し、AnthropicはビジネスリスクをとってでもAI安全の原則を守ろうとした。どちらが「正しい」かは、この訴訟の行方とともに問われ続けることになる。
AI企業 vs. 国家権力:新たな構造的対立
今回の訴訟は単なる契約紛争ではなく、「AI時代における民間企業と国家権力の関係」という根本的な問いを突きつけている。
政府側の論理
- AI技術は安全保障の根幹であり、民間企業が「使途制限」を設けること自体が問題
- 「合法的な用途」への制限は、政府の正当な権限への介入とみなす
AI企業側の論理
- 自社技術の倫理的使用に責任を持つのは開発者自身
- 国家が民間技術を「何にでも使える」と強制することは言論の自由(修正第一条)の侵害
- 信頼性が確認されていないAIに人命の決定を委ねることは技術的にも倫理的にも時期尚早
EFF(電子フロンティア財団)も声明を発表し、「政府が企業にAI監視への参加を強制することは許されない」と指摘している。
この構造的な対立は、Anthropicだけの問題ではない。今後、他のAI企業も同様の圧力にさらされる可能性があり、米国AI産業全体のあり方を問う試金石となっている。
今後の展開
現在進行中の重要事項:
- 裁判所の判断:差止命令の是非が早期に判断される見通し
- 議会の動き:議会でも関連法制やAI統治の見直し論が強まっており、今回の事態が立法議論を加速させる可能性がある
- 他社への波及:Google、OpenAI、Metaなど他のAI企業がどう対応するか注視が必要
まとめ
- AnthropicがDODを提訴:自律兵器・大量監視へのClaude使用拒否を理由とした「サプライチェーンリスク」指定に対して
- この指定は米国企業への適用として極めて異例と報じられている
- OpenAIはAnthropicが断った同一契約を受注——3社の安全ポリシーは表向き近くても実際の線引きは異なる
- FY2026の国防AI関連予算は約134億ドルと推計され(前年の約18億ドルから大幅拡大)、国防AI市場の争奪戦が激化
- Googleのチーフサイエンティスト Jeff Deanを含むOpenAI・Google社員30名超とMicrosoftが支持声明
- 訴訟の核心:修正第一条違反 + サプライチェーンリスク指定制度の越権的適用
- AI企業と国家権力の構造的対立が表面化——結果次第で業界全体の自主安全ポリシーの行方が決まる
AI技術の普及とともに、誰がAIの「使い方のルール」を決めるのかという問いは、これからますます重要になっていく。この訴訟は、その答えをめぐる最初の大きな法廷闘争として、歴史に刻まれるかもしれない。




