五角大廈向 Anthropic 下通牒:要求解禁 AI 軍事應用「護欄」¶
來源: 自由時報
日期: 2026-02-26
類型: 國際新聞
連結: https://news.ltn.com.tw/amp/news/world/breakingnews/5351539
簡介¶
美國五角大廈與 AI 模型開發公司 Anthropic,因機密軍事系統中使用 AI 模型的限制而僵持不下。國防部長赫格塞斯(Pete Hegseth)已向該公司下通牒,要求最晚 **2 月 27 日傍晚**讓軍方不受限制地使用該公司 AI 模型。
最後通牒內容¶
時間點¶
- 下達日期: 2026-02-24
- 截止期限: 2026-02-27 傍晚
會面人員¶
五角大廈方: - Pete Hegseth - 戰爭部長(國防部長) - Steve Feinberg - 副部長 - Emil Michael - 主管研發工程次長 - Michael Duffy - 採購與後勤次長 - Sean Parnell - 首席發言人 - Earl Matthews - 首席法律顧問
Anthropic 方: - Dario Amodei - 執行長
兩種選項¶
選項 1:切斷合作 + 制裁¶
- 切斷合作關係
- 宣布 Anthropic 為「供應鏈風險」
選項 2:強制徵用¶
- 援引《國防生產法》(Defense Production Act)
- 強制要求量身訂做符合軍方需求的 AI 模型
核心爭議¶
五角大廈立場¶
- 希望**不受 AI 公司制定的限制束縛**
- 僅需遵守**美國法律**即可
- 不允許公司對作戰決策指手畫腳
- 不接受對個別使用情境提出反對
Anthropic 堅持的「護欄」¶
紅線 1:不用於大規模監控 - 不允許對**美國民眾**進行大規模監控
紅線 2:不用於自主武器 - 不允許開發**無人類介入下即可開火的自主武器系統**
Anthropic 立場¶
- 願意為五角大廈**調整使用政策**
- 但**不會移除「護欄」措施**
- 強調紅線**從未妨礙**五角大廈執行工作
Claude 的軍事地位¶
獨特性¶
- **唯一**被用於美國軍方最敏感系統的 AI 模型
軍方評價¶
- 赫格塞斯稱讚 Claude 的表現
會談氣氛¶
消息人士描述¶
- 緊繃:「一點都不溫和、親切」
- 維持禮貌:未拉高音量
- 立場堅定:雙方僵持不下
Anthropic 會後聲明¶
"阿莫戴對戰爭部和部長表達感謝之意,持續就有關我們的使用政策進行善意對話,以確保 Anthropic 能在其模型**可靠且負責任**的運作範圍內,持續支持政府的國安任務。"
關鍵議題¶
1. AI 倫理 vs 國家安全¶
- 倫理紅線:防止大規模監控、自主武器
- 國安需求:軍事行動靈活性、決策自主權
2. 企業自主 vs 政府強制¶
- 企業立場:維持 AI 安全護欄
- 政府權力:國防生產法、供應鏈管制
3. Claude 的獨特地位¶
- 唯一用於最敏感系統
- 軍方高度依賴
- Anthropic 擁有談判籌碼
可能結果¶
情境 1:Anthropic 妥協¶
- 調整使用政策
- 保留部分護欄
- 繼續合作
情境 2:五角大廈強制¶
- 援引國防生產法
- 強制定制模型
- Anthropic 失去控制權
情境 3:關係破裂¶
- 宣布為供應鏈風險
- 切斷合作
- 五角大廈尋找替代方案
更廣泛影響¶
AI 產業¶
- 設立企業倫理紅線的先例
- 政府干預 AI 開發的界限
- 其他 AI 公司(OpenAI、Google)的立場
軍事科技¶
- AI 在軍事應用的倫理標準
- 自主武器發展的監管
- 民主國家 vs 威權國家的 AI 競爭
法律框架¶
- 國防生產法的適用範圍
- AI 使用的法律監管
- 企業與政府權力平衡
時間軸¶
- 2026-02-24:五角大廈下達最後通牒
- 2026-02-27 傍晚:截止期限
- 待觀察:Anthropic 的回應與五角大廈的後續行動
關鍵詞彙¶
- 護欄(Guardrails):AI 安全限制措施
- 國防生產法:美國政府強制企業生產的法律
- 供應鏈風險:安全威脅認定
- 自主武器:無人類介入的武器系統
- Claude:Anthropic 開發的 AI 模型