米国、軍事利用を拒否したAnthropicを禁止 AI安全原則で米陸軍とOpenAIが合意

Anthropicの機密軍事ネットワークからの排除は、米陸軍とOpenAIが定められたAI安全原則の下でモデルを配備する新たな合意と対照的である

要約

2026年2月27日、米国政府は大量監視や自律型兵器を含む軍事応用においてAI利用の柔軟性を認めることを拒否したAnthropicを機密軍事ネットワークから禁止した。同社の禁止は「サプライチェーンリスク」の指定を伴い、予定していたIPOやAI軍事基準策定における役割を危険にさらした。一方、2月28日にOpenAIは米陸軍と、定義された安全原則の下でAIモデルをこうしたネットワークに配備する合意を発表した。OpenAIの動きは国家安全保障指令とのより密接な整合を示している。

用語解説
  • Artificial Intelligence (AI): 言語理解や意思決定など、人間の知能を必要とする作業を通常行うコンピュータシステム。
  • Mass Surveillance: 政府などが技術を用いてデータを収集し、大規模に個人や集団を監視すること。
  • Autonomous Weapons: 人間の介入なしに目標特定と攻撃が可能な兵器システム。