BlockBeats 律動財經
編者按:就在 OpenAI 宣布與五角大廈達成 AI 合作協議的數小時前,五角大廈剛剛以 Anthropic 堅持安全條款為由終止雙方合作。隨後,Anthropic CEO Dario Amodei 向員工發布了一封措辭異常激烈的內部備忘錄,直指 OpenAI 所宣稱的「安全機制」大多只是「安全表演」,並質疑其在自主武器與大規模監控問題上的立場。
在這封約 1600 字的郵件中,Amodei 不僅披露了雙方與美國國防體系談判的部分細節,也將矛頭直接指向 OpenAI CEO Sam Altman,指責其通過公關敘事掩蓋真實的合作結構。這場圍繞 AI 軍事應用、安全紅線與政治關係的爭議,正在把矽谷兩大 AI 公司之間的分歧推向台前。
以下為原文:
我想把 OpenAI 當前釋放的信息,以及這些信息中存在的虛偽之處,說得非常清楚。這正是他們真實的做法,我希望大家都能看清。
儘管我們對他們與戰爭部(DoW)簽署的合同仍有許多未知之處(甚至他們自己可能也未必完全清楚,因為合同條款很可能相當模糊),但有幾點是可以確定的:從 Sam Altman 和戰爭部的公開描述來看(當然還需要看到合同文本才能最終確認),他們的合作模式大致是這樣的:模型本身沒有任何法律層面的使用限制,即所謂「所有合法用途」;同時設定一層所謂的「安全層」。在我看來,這種「安全層」本質上就是模型的拒絕機制,用來阻止模型完成某些任務或參與某些應用。
所謂的「安全層」,也可能指合作夥伴(例如 Palantir,Anthropic 服務美國政府客戶時的商業夥伴)在談判中試圖向我們推銷的方案。他們提出了一種分類器或機器學習系統,聲稱能夠允許某些應用通過,同時攔截另一些應用。此外,也有跡象表明 OpenAI 會安排員工(FDE,即前線部署工程師)對模型的使用進行監督,以防止出現不當應用。
我們的總體判斷是:這些方案並非完全沒有作用,但在軍事應用的語境下,大約 20% 是真實防護,80% 是安全表演。
問題的根源在於:模型是否被用於大規模監控或完全自主武器系統,往往取決於更廣泛的上下文資訊。模型本身並不知道自己處在什麼樣的系統中,它不知道是否有人類處於「回路之中」(human-in-the-loop,即自主武器問題的關鍵);也不知道它正在分析的數據來源是什麼。例如,是美國國內數據還是境外數據,是企業在獲得用戶同意後提供的數據,還是通過灰色渠道購買的數據等等。
從事安全工作的人員對此早已深有體會:模型拒絕機制並不可靠。越獄攻擊十分常見,很多時候只需要向模型謊報數據的性質,就可以繞過這些限制。
這裡還有一個關鍵區別,使問題比普通安全防護更複雜:判斷模型是否正在執行網路攻擊,從輸入和輸出往往可以看出端倪;但判斷攻擊的性質以及具體上下文,卻是完全不同的事情,而這恰恰是這裡所需要的判斷能力。在很多情況下,這項任務極其困難,甚至根本不可能完成。
Palantir 向我們推銷的「安全層」(我想他們也向 OpenAI 推銷了類似方案)情況更糟。我們的判斷是,這幾乎完全是一種安全表演。
Palantir 的基本邏輯似乎是這樣的:「你們公司裡可能有一些不滿的員工,你們需要給他們一些東西來安撫他們,或者讓正在發生的事情對他們不可見。這正是我們提供的服務。」
至於讓 Anthropic 或 OpenAI 的員工直接監督部署的問題,我們幾個月前在擴展機密環境下的可接受使用政策(AUP)時也進行過內部討論。結論非常明確:這種方式只在極少數情況下可行。我們會盡力嘗試,但它絕不是可以依賴的核心保障機制,在機密環境中尤其難以實施。順便說一句,我們確實已經在盡可能這樣做,在這一點上我們與 OpenAI 並沒有區別。
因此我要說的是:OpenAI 採取的這些措施基本無法解決問題。
他們之所以接受這些方案,而我們沒有,本質原因在於:他們關注的是如何安撫員工,而我們真正關心的是防止濫用。
這些方案並非毫無價值,我們自己也在使用其中的一部分,但它們遠遠不足以達到應有的安全標準。同時,戰爭部在對待 OpenAI 和我們時顯然並不一致。
事實上,我們曾嘗試在合同中加入與 OpenAI 類似的一些安全條款(作為 AUP 的補充。在我們看來,AUP 才是更重要的部分),但戰爭部拒絕了。相關證據就在當時的郵件討論鏈中。由於我現在事務繁多,可能會讓同事之後去查找具體措辭。因此,「OpenAI 的條款曾提供給我們而被我們拒絕」這一說法並不屬實;同樣,「OpenAI 的條款能夠有效阻止大規模國內監控或完全自主武器」這一說法也不屬實。
此外,Sam 和 OpenAI 的表述還暗示,我們提出的紅線,即完全自主武器與大規模國內監控,本身已經是違法行為,因此相關使用政策是多餘的。這種說法與戰爭部的表態幾乎完全一致,看起來像是事先協調好的。
但這並不符合事實。
正如我們昨天在聲明中解釋的那樣,戰爭部確實擁有進行國內監控的權限。過去在沒有 AI 的時代,這些權限的影響相對有限,但在 AI 時代,其意義已經完全不同。
舉例來說:戰爭部可以合法地從供應商處大量購買美國公民的私人數據(這些供應商通常通過隱蔽的使用者同意條款獲得轉售權),隨後利用 AI 對這些數據進行大規模分析,用於建立公民畫像、評估政治傾向、追踪現實空間中的行動軌跡,他們能夠獲得的數據甚至包括 GPS 資訊等等。
還有一點值得注意:在談判接近尾聲時,戰爭部提出,如果我們刪除合同中一條關於「大規模採購數據分析」(analysis of bulk acquired data) 的具體表述,就願意接受我們的全部其他條款。而這一條恰恰是合同中唯一精準對應我們最擔心情景的條文。我們對此感到非常可疑。
在自主武器問題上,戰爭部声稱「人類在回路中」是法律要求。但事實並非如此。這實際上只是拜登政府時期的一項五角大樓政策,要求在武器發射決策中必須有人類參與。而這項政策可以被現任國防部長 Pete Hegseth 單方面修改——這正是我們真正擔心的地方。因此,從現實角度來看,這並不是一個真正的約束。
OpenAI 與戰爭部在這些問題上的大量公關說辭,要麼是在撒謊,要麼是在刻意製造混淆。這些事實揭示了一種行為模式,而這種模式我在 Sam Altman 身上已經見過很多次。我希望大家能夠識別它。
今天早上,他先表示自己認同 Anthropic 的紅線,這樣做的目的是顯得支持我們,從而分走一些功勞,同時在他們接手這份合同時避免受到批評。他還試圖把自己塑造成一個希望「為整個行業制定統一合同標準」的角色——也就是和平締造者與交易撮合人。
但在幕後,他正在與戰爭部簽署合同,準備在我們被標記為供應鏈風險的那一刻取代我們。
同時,他必須確保這一過程看起來不像是「在 Anthropic 堅守紅線時,OpenAI 卻放棄了底線」。之所以能做到這一點,是因為:
第一,他可以簽署所有我們拒絕的「安全表演」措施,而戰爭部及其合作夥伴也願意配合,把這些措施包裝得足夠可信,以安撫他的員工。
第二,戰爭部願意接受他提出的一些條款,而當初我們提出同樣內容時卻遭到了拒絕。
正是這兩點,使得 OpenAI 可以達成協議,而我們無法做到。
戰爭部以及特朗普政府不喜歡我們的真正原因是:我們沒有向特朗普進行政治捐款(而 OpenAI 及 Greg Brockman 捐了很多);我們沒有對特朗普進行獨裁式的讚美(而 Sam 做了);我們支持 AI 監管,而這違背了他們的政策議程;我們在許多 AI 政策問題上選擇說實話(例如 AI 對就業的替代問題);以及,我們確實堅守了紅線,而不是與他們一起製造「安全表演」來安撫員工。
Sam 現在正在試圖把這一切描述成:我們難以合作、我們態度強硬、我們缺乏靈活性等等。我希望大家認識到,這正是一種典型的 煤氣燈操控(gaslighting)。
「某個人不好合作」這種模糊的說法,往往被用來掩蓋真正難看的原因——也就是我剛剛提到的那些:政治捐款、政治忠誠,以及安全表演。
每個人都需要理解這一點,並在私下與 OpenAI 員工交流時反駁這種敘事。
换句話說,Sam 正在以「支持我們」的姿態削弱我們的立場。我希望大家對此保持清醒:他通過削弱公眾對我們的支持,讓政府更容易對我們進行懲罰。甚至,我懷疑他可能還在暗中推波助瀾,雖然這一點我目前沒有直接證據。
在公眾和媒體層面,這種話術與操控似乎已經失效。大多數人都認為 OpenAI 與戰爭部的交易值得警惕,甚至令人不安,同時把我們視為堅持原則的一方(順便說一句,我們現在已經是 App Store 下載榜第二名了)。
【註:隨後 Claude 升至 App Store 第一。】
當然,這套敘事在一些推特上的蠢貨那裡起了作用,不過這並不重要。我真正擔心的是:確保它不會在 OpenAI 的員工內部產生影響。
由於篩選效應,他們本來就是一群相對容易被說服的人。但反駁 Sam 正在向自己員工兜售的這些敘事,依然十分重要。
[]
發佈者對本文章的內容承擔全部責任
在投資加密貨幣前,請務必深入研究,理解相關風險,並謹慎評估自己的風險承受能力。不要因為短期高回報的誘惑而忽視潛在的重大損失。
暢行幣圈交易全攻略,專家駐群實戰交流
▌立即加入鉅亨買幣實戰交流 LINE 社群(點此入群)
不管是新手發問,還是老手交流,只要你想參與加密貨幣現貨交易、合約跟單、合約網格、量化交易、理財產品的投資,都歡迎入群討論學習!
上一篇
下一篇