跳轉到

五角大廈向 Anthropic 下通牒:要求解禁 AI 軍事應用「護欄」

來源: 自由時報
日期: 2026-02-26
類型: 國際新聞
連結: https://news.ltn.com.tw/amp/news/world/breakingnews/5351539


簡介

美國五角大廈與 AI 模型開發公司 Anthropic,因機密軍事系統中使用 AI 模型的限制而僵持不下。國防部長赫格塞斯(Pete Hegseth)已向該公司下通牒,要求最晚 **2 月 27 日傍晚**讓軍方不受限制地使用該公司 AI 模型。

最後通牒內容

時間點

  • 下達日期: 2026-02-24
  • 截止期限: 2026-02-27 傍晚

會面人員

五角大廈方: - Pete Hegseth - 戰爭部長(國防部長) - Steve Feinberg - 副部長 - Emil Michael - 主管研發工程次長 - Michael Duffy - 採購與後勤次長 - Sean Parnell - 首席發言人 - Earl Matthews - 首席法律顧問

Anthropic 方: - Dario Amodei - 執行長

兩種選項

選項 1:切斷合作 + 制裁

  • 切斷合作關係
  • 宣布 Anthropic 為「供應鏈風險

選項 2:強制徵用

  • 援引《國防生產法》(Defense Production Act)
  • 強制要求量身訂做符合軍方需求的 AI 模型

核心爭議

五角大廈立場

  • 希望**不受 AI 公司制定的限制束縛**
  • 僅需遵守**美國法律**即可
  • 不允許公司對作戰決策指手畫腳
  • 不接受對個別使用情境提出反對

Anthropic 堅持的「護欄」

紅線 1:不用於大規模監控 - 不允許對**美國民眾**進行大規模監控

紅線 2:不用於自主武器 - 不允許開發**無人類介入下即可開火的自主武器系統**

Anthropic 立場

  • 願意為五角大廈**調整使用政策**
  • 但**不會移除「護欄」措施**
  • 強調紅線**從未妨礙**五角大廈執行工作

Claude 的軍事地位

獨特性

  • **唯一**被用於美國軍方最敏感系統的 AI 模型

軍方評價

  • 赫格塞斯稱讚 Claude 的表現

會談氣氛

消息人士描述

  • 緊繃:「一點都不溫和、親切」
  • 維持禮貌:未拉高音量
  • 立場堅定:雙方僵持不下

Anthropic 會後聲明

"阿莫戴對戰爭部和部長表達感謝之意,持續就有關我們的使用政策進行善意對話,以確保 Anthropic 能在其模型**可靠且負責任**的運作範圍內,持續支持政府的國安任務。"

關鍵議題

1. AI 倫理 vs 國家安全

  • 倫理紅線:防止大規模監控、自主武器
  • 國安需求:軍事行動靈活性、決策自主權

2. 企業自主 vs 政府強制

  • 企業立場:維持 AI 安全護欄
  • 政府權力:國防生產法、供應鏈管制

3. Claude 的獨特地位

  • 唯一用於最敏感系統
  • 軍方高度依賴
  • Anthropic 擁有談判籌碼

可能結果

情境 1:Anthropic 妥協

  • 調整使用政策
  • 保留部分護欄
  • 繼續合作

情境 2:五角大廈強制

  • 援引國防生產法
  • 強制定制模型
  • Anthropic 失去控制權

情境 3:關係破裂

  • 宣布為供應鏈風險
  • 切斷合作
  • 五角大廈尋找替代方案

更廣泛影響

AI 產業

  • 設立企業倫理紅線的先例
  • 政府干預 AI 開發的界限
  • 其他 AI 公司(OpenAI、Google)的立場

軍事科技

  • AI 在軍事應用的倫理標準
  • 自主武器發展的監管
  • 民主國家 vs 威權國家的 AI 競爭

法律框架

  • 國防生產法的適用範圍
  • AI 使用的法律監管
  • 企業與政府權力平衡

時間軸

  • 2026-02-24:五角大廈下達最後通牒
  • 2026-02-27 傍晚:截止期限
  • 待觀察:Anthropic 的回應與五角大廈的後續行動

關鍵詞彙

  • 護欄(Guardrails):AI 安全限制措施
  • 國防生產法:美國政府強制企業生產的法律
  • 供應鏈風險:安全威脅認定
  • 自主武器:無人類介入的武器系統
  • Claude:Anthropic 開發的 AI 模型

標籤

Anthropic #Claude #五角大廈 #AI倫理 #軍事AI #國防生產法 #自主武器 #AI安全 #國家安全