美國國防部攜手 AI 巨頭加速軍事應用

Author:

Published:

- 廣告 -

美國國防部近日與多間頂尖 AI 企業簽署協議,將先進人工智能技術部署於機密軍事網絡,標誌著美軍 AI 軍事化步伐大幅加速。這不僅強化戰場決策能力,也凸顯 AI 在現代戰爭中的關鍵角色,但同時引發業界對安全與倫理界限的討論。

國防部大舉簽約 AI 助力軍事優勢

根據美國國防部 5 月 1 日公告,OpenAI、Google、NVIDIA、Microsoft、Amazon Web Services、SpaceX(xAI 母公司)、Reflection AI 及 Oracle 等八家公司已達成協議,允許其 AI 模型在國防部 Impact Level 6 及 7 級最高機密網絡上運行。這些 AI 將用於數據合成、情勢理解及提升戰士決策效率,支援「AI 優先」策略,以維持美國在全球競爭中的軍事優勢。

國防部強調,協議聚焦「合法操作用途」,旨在縮短情報分析與作戰任務時間。此前 Google、OpenAI 及 SpaceX 已簽署類似協議,新一波合作進一步擴大範圍。分析指出,這反映特朗普政府推動 AI 軍事應用的積極態度,期望透過商業前沿技術加速軍事轉型。

- 廣告 -

Anthropic 與政府的糾紛

Anthropic 較早前與美國國防部發生爭議,堅持 Claude 模型不得用於大規模國內監控或全自主致命武器。
Anthropic 較早前與美國國防部發生爭議,堅持 Claude 模型不得用於大規模國內監控或全自主致命武器。

值得注意的是,Anthropic 未被納入最新協議。此前該公司因與五角大廈的嚴重糾紛而被列為「供應鏈風險」。2025 年 Anthropic 曾獲約 2 億美元合約,但 2026 年初在 GenAI.mil 平台部署談判中,雙方因使用限制爆發衝突。Anthropic 堅持 Claude 模型不得用於大規模國內監控或全自主致命武器,拒絕接受「所有合法用途」條款。

國防部視此為阻礙,威脅取消合約並施壓供應商切斷合作。Anthropic 隨後提起訴訟,指控政府報復性行動違反美國憲法第一修正案。聯邦法官曾發出臨時禁令,但爭議持續凸顯 AI 企業安全紅線與國家安全需求的緊張關係。OpenAI 等競爭對手則較快達成協議,填補空缺。

此事件不僅影響 Anthropic 業務,也引發業界討論:私人企業是否有權設定 AI 軍事使用界限?隨著 AI 成為戰略資產,美軍與科技巨頭的合作將更緊密,但倫理與安全議題料將持續發酵。

- 廣告 -
Buy Me a CPM: PCM 讀者會員資助計劃
- 廣告 -

Related Articles

- 廣告 -

Recent Articles

- 廣告 -

最新影片

- 廣告 -