鉅亨網編譯陳韋廷
《華爾街日報》近日一則報導稱,美軍在對伊朗空襲行動中使用美國 AI 企業 Anthropic 大模型 Claude 進行情報評估、目標識別以及作戰場景模擬,引發全球科技與軍事領域的強烈震動,不僅揭示 AI 技術在現代戰爭中的深度應用,更引爆一場關於科技倫理與國安界限的激烈爭論。
作為目前唯一獲准接入五角大廈機密系統的商業 AI 模型,Claude 具備處理最高等級敏感情報的權限,其應用範圍從作戰規劃到網路攻防,涵蓋軍事行動關鍵環節。
值得關注的是,先前在策劃抓捕委內瑞拉總統馬杜洛的行動中,美軍也已藉助 Claude 進行輔助決策,顯示 AI 已從單純的技術工具演變為現代戰爭的核心要素。
軍事分析專家指出,AI 正重新定義戰場規則。在情報分析層面,AI 系統能整合衛星影像、訊號資料與開源訊息,將傳統上需數日完成的分析壓縮至分鐘級,實現精準目標鎖定與行為預測。
在指揮決策環節,AI 可在幾秒鐘內產生多套作戰方案,並進行風險評估,大幅縮短指揮系統的 OODA 循環週期。
有觀點認為,這種「演算法制勝」的新型戰爭模式正快速重建傳統軍事優勢格局。
然而,科技的軍事化應用引發了嚴峻的倫理危機。上周四 (2 月 26 日),Anthropic 執行長達裡奧公開表示,公司始終將「大規模自主監控」和「全自動武器」排除在合作範圍外。但五角大廈要求取消這些安全限制,並以《國防生產法》為依據,威脅將 Anthropic 列入供應鏈風險名單,此舉導致美國總統川普隔天便下令所有聯邦機構停用 Anthropic 技術。
頗具戲劇性的是,在 Anthropic 被禁當晚,OpenAI 宣布與五角大廈達成合作。這種更替引發科技界強烈反響,部分員工聯署公開信,呼籲企業拒絕將 AI 用於軍事目的。
這一系列事件折射出商業倫理與國家安全之間的深刻矛盾,也反映出科技企業在面對政府壓力時的艱難抉擇。
法律專家指出,冷戰時期制定的《國防生產法》與 AI 治理的現代需求有顯著衝突。在缺乏明確法律架構的前提下,行政命令恐逾越權限邊界,侵害企業的技術自主權與倫理準則。目前亟需透過立法明確高風險 AI 系統的可解釋性要求、責任認定機制及人權保障底線,尤其應禁止 AI 用於無差別攻擊和大規模侵權行動。
產業學者強調,在 AI 軍事化應用加速背景下,技術創新與倫理約束必須保持平衡。AI 發展應以人類掌控為核心原則,確保科技始終服務於人類福祉,而非取代人類判斷。
專家表示,只有透過健全的法律體系和國際共識,才能在技術進步與倫理底線之間找到平衡點,引導 AI 朝著有利於人類文明的方向發展。
這場圍繞 AI 軍事應用的爭論已成為檢驗科技倫理、法律體系和國際治理能力的試金石,最終結果將深刻影響未來戰爭形態與全球科技治理格局。
上一篇
下一篇
