Anthropicは2026年3月27日、米国国防総省(ペンタゴン)がClaudeへのアクセスを一方的に禁止したことに対し、連邦裁判所から仮処分命令を勝ち取った。この判決は、AI企業と政府機関の契約関係をめぐる先例となる可能性があり、業界全体が注目している。
経緯:国防総省とAnthropicの対立
事の発端は数週間前にさかのぼる。国防総省は突如としてClaudeを含む複数のAIサービスへのアクセスを内部的に制限。当初は「セキュリティ審査中」とだけ説明されたが、実質的な利用禁止状態が続いていた。
Anthropicはこの措置を「既存の契約に反する一方的な行動」として問題視。契約上の義務を果たしているにもかかわらず、正当な理由なくサービスへのアクセスを遮断されたとして、法的措置に踏み切った。
仮処分命令の意味
連邦裁判所が仮処分命令を認めたことは、Anthropicの主張に一定の正当性があると裁判所が判断したことを意味する。仮処分命令は本訴訟の判決が出るまでの間、国防総省に対してClaudeへのアクセス遮断を解除するよう命じるものだ。
法律専門家は、この仮処分命令を「AI企業が政府機関との契約関係において持つ権利を主張した重要な一歩」と評価している。従来、政府機関が民間企業のサービス利用を制限する場合、企業側は泣き寝入りするケースが多かったが、今回の判決はその慣行に一石を投じた。
トランプ政権のAI政策との関連
この問題はトランプ政権のAI政策とも絡み合っている。政権はAI技術の国家安全保障への活用と、特定のAI企業への依存リスクのバランスを模索しており、国防総省の動きもその一環と見られる。
特に注目されるのは、Anthropicが安全性重視のAI開発で知られる企業である点だ。同社のConstitutional AI(憲法的AI)アプローチは、倫理的なガイドラインに従ってモデルを訓練する手法として業界標準になりつつある。政府機関がこうした企業のサービスを突然遮断することは、AI安全性コミュニティからも懸念の声が上がっている。
業界への影響
今回の法廷闘争は、AIサービスを政府機関に提供している企業全体に影響を与えかねない重大な事案だ。OpenAI、Google、Microsoftなど他の大手AI企業も政府向けサービスを展開しており、契約保護に関する法的枠組みの整備が急務となっている。
また、この事案は民間AI企業と政府機関の力関係を明示する事例となった。AIが国防・安全保障の分野に不可欠なインフラとなりつつある中、企業側がどこまで政府に対して権利主張できるのかという問いは、今後ますます重要になる。
今後の展開
仮処分命令はあくまで暫定的な措置であり、本裁判での最終判決が出るまで状況は流動的だ。Anthropicと国防総省の双方が法廷での主張を続ける中、この案件がAI業界のガバナンス論議に与える影響は計り知れない。
特に、政府機関によるAIサービスの利用ポリシーがより透明化・標準化されるきっかけになるかどうかが、今後の焦点となるだろう。



