Anthropic、戦時にAIを操作できるとの米国防総省の主張を否定
2026.03.21
・
Wired
AIZEN NEWS編集部の要点整理
米国防総省が、AI開発企業Anthropicが「戦時にモデルを操作(sabotage)できる可能性がある」と指摘したことに対し、同社経営陣がそれを否定したという報道が出ました。国防総省の主張は、戦時下で外部ベンダーがモデル挙動を変えたり、アクセス権を利用して機能を停止・改変したりするリスクを懸念したものと受け取れます。一方でAnthropicは、そうした操作が実際に可能だという点を否定しており、同社の設計や運用上の制約から不可能だと主張しています。
この対立は、軍や重要インフラが民間の生成AIを採用する際の信頼性と安全性に直結する問題です。モデルの遠隔更新や管理権限、バックドアの有無、そして緊急時の制御権限といった技術的・契約的な課題が改めて浮き彫りになりました。関係者は、誰がいつどうやってモデルの挙動を変えられるのかを明確にすることが必要だと指摘するでしょう。
AI業界への示唆としては、政府や大口ユーザーとの契約における透明性・監査可能性の強化、セキュリティ設計の見直し、緊急時のフェイルセーフ手順の標準化が求められる点が挙げられます。今回のやり取りは、商用生成AIの軍事利用や公共調達ルールに関する議論を促す可能性が高く、企業側は技術的実装と説明責任をより重視する必要がありそうです。