鉅亨網編譯段智恆
《CBS News》周二 (4 日) 援引兩名知情人士消息報導,美軍上周末對伊朗的軍事行動中,使用了 Anthropic 旗下的 Claude 人工智慧 (AI) 模型,且目前仍在持續使用。五角大廈未對外說明該 AI 工具的具體部署方式,但此舉發生之際,川普政府才剛下令聯邦機構全面停止使用 Anthropic 技術,雙方關係因合約爭議急轉直下。
爭議核心在於 Anthropic 要求在合約中設下明確「紅線」,禁止軍方利用 Claude 進行對美國公民的大規模監控,或用於完全自主的致命武器系統。五角大廈則主張,應保留將 Claude 用於「所有合法用途」的權限,並認為相關疑慮並不具實質性,因為對美國人進行大規模監控本就違法,軍方內部政策亦限制使用完全自主武器。
國防部首席技術長麥可 (Emil Michael) 日前接受《CBS News》訪問時表示,「在某種程度上,你必須相信軍方會做正確的事。」他指出,國防部目前主要利用 Claude 進行文件整合分析,以及提升後勤與供應鏈效率等任務。
Anthropic 執行長達阿莫戴 (Dario Amodei) 則強調,公司之所以堅持設下紅線,是因為「我們相信跨越那些界線違背美國價值,我們希望捍衛這些價值」。他並表示,「與政府持不同意見,是最具美國精神的事,我們是愛國者。」
川普上周五宣布,已要求聯邦機構在六個月內逐步停止使用 Anthropic 技術,國防部長赫格塞斯 (Pete Hegseth) 亦將該公司列為供應鏈風險。國安媒體《Defense One》引述多名知情人士報導,五角大廈若要以其他 AI 平台取代 Claude,可能需三個月甚至更長時間。
此番發展凸顯 AI 技術在軍事應用中的角色日益吃重,也反映科技公司與政府之間,圍繞監控界線與自主武器議題的價值衝突仍在延燒。
上一篇
下一篇
