對話0G Labs:DA終局之路和鏈上AI新紀元
BlockBeats 律動財經 2024-06-13 17:00
以下為訪談正文:
Web2 獨角獸掌門再創業
Jonny:今天我們要深入探討一個重要話題——數據可用性(DA),特別是加密 AI 領域的數據可用性。Michael,你們公司在這一領域有很大的發言權。在深入細節之前,請你簡單介紹一下職業背景,以及你是如何進入這一小眾領域的。
Michael:我最初是微軟和 SAP 實驗室的軟體工程師和技術產品經理,在 Visual Studio 團隊從事前沿技術工作。後來轉向業務端,在貝恩公司工作了幾年,又搬到康涅狄格州為橋水基金工作,負責投資組合構建。每天要審核約 600 億美元的交易,了解很多風險指標。比如,我們查看 CDS 利率來評估交易對手風險等。這段經歷讓我深入了解了傳統金融。
之後,我回到斯坦福讀研,創辦了我的第一家 Web2 公司 Garten。公司鼎盛時期員工一度擴展到 650 名,年收入達 1 億美元,總融資額約 1.3 億美元,成為估值超 10 億美元的獨角獸公司和 Y Combinator 孵化的明星項目。
2022 年底,我在斯坦福的同學 Thomas 聯繫我。他提到五年前投資了 Conflux,認為 Wu Ming 和 Long Fan 是他資助過的最優秀的工程師,我們四個應該聚在一起,看看能不能碰撞出什麼火花。經過六個月的相處,我得出同樣的結論。我心想:「哇,Ming 和 Fan 是我合作過的最優秀的工程師和計算機科學家。我們一定要一起創業。」我開始轉為 Garten 的董事長,並且全職投入 0G。
DA 的現狀、挑戰與終極目標
Jonny:這是我聽過的最棒的創始人介紹之一,我猜你們的 VC 融資過程一定很順利。在深入探討數據可用性這個話題之前,我想先討論一下 DA 的現狀。雖然有一些玩家眾所周知,但就目前而言,你如何評估 DA 的格局?
Michael:DA 現在有多種來源,具體取決於區塊鏈。例如,在以太坊 Danksharding 升級之前,以太坊的 DA 大約為每秒 0.08 MB。後來,Celestia、EigenDA 和 Avail 進入市場,它們的吞吐量通常在每秒 1.2 到 10 MB 之間。問題在於,對於 AI 應用或任何鏈上遊戲應用,這種吞吐量遠遠不夠。我們需要討論的是每秒 GB 級,而不是每秒 MB 級的 DA。舉個例子,如果你想在鏈上訓練 AI 模型,實際上需要每秒 50 到 100 GB 的數據傳輸量才能實現。這是數量級的差異。我們看到了這個機會,思考如何創造這種突破,使 Web2 的大型應用程序能夠以相同的性能和成本在鏈上構建。這是我們在該領域看到的一個巨大空白。此外,還有一些問題沒有得到充分考慮。比如,我們認為數據可用性是數據發布和數據儲存的結合。我們的核心洞察是將數據分成這兩個通道來避免系統中的廣播瓶頸,從而實現突破性的性能改進。
一個附加的儲存網路可以讓你做很多事情,比如模型儲存、針對特定用例的訓練數據儲存,甚至可編程性。你可以進行完整的狀態管理,決定將數據儲存在哪裡,儲存多長時間,以及需要多少安全性。因此,各種領域真正需要的真實用例,現在都成為可能。
目前 DA 的現狀是,我們取得了重大進展,從每秒 0.08 MB 提高到 1.4 MB,確實降低了交易成本,在某些情況下甚至減少了 99%。但對於未來世界的真正需求來說,這還不夠。高性能 AI 應用、鏈上遊戲、高頻 DeFi,所有這些應用都需要更高的吞吐量。
Mehdi:我有兩個基礎性的問題。首先是關於儲存。你提到 L2 的交易歷史,甚至是 AI 模型的歷史。在儲存方面,我們需要儲存數據多長時間?這是我的第一個問題。第二個問題是,已經有 Arweave 和 Filecoin 這樣的去中心化儲存網路,你認為它們能否幫助提高吞吐量?我指的不是數據發布,而是儲存。
Michael:數據的儲存時長取決於其目的。如果考慮災難恢復,數據應永久儲存,以便重構狀態。對於樂觀 rollup 那種有欺詐證明窗口的情況,至少需要儲存 7 天,以便在需要時重構狀態。對於其他類型的 rollup,儲存時間可能更短。具體情況不同,但大致如此。
至於其他儲存平台,我們選擇內部構建儲存系統,因為 Arweave 和 Filecoin 更多是為日誌類型的儲存而設計的,也就是長期冷儲存。因此它們並非為非常快速的數據寫入和讀取而設計,而這對 AI 應用以及需要鍵值儲存或事務型數據類型的結構化數據應用至關重要。這樣才能實現快速處理,甚至可以搭建去中心化的 Google 文檔應用。
Jonny:關於為什麼需要 DA,以及現有的去中心化儲存解決方案為何不適合這種特定場景,你闡述得非常清楚。可以討論一下數據可用性的終極目標嗎?
Michael:終極目標很容易定義,我們要實現的是與 Web2 相當的性能和成本,使得在鏈上構建任何東西都成為可能,特別是 AI 應用。這很直白,就像 AWS 有計算和儲存,S3 是一個關鍵組件。數據可用性雖然有不同特性,但也是一個關鍵組件。我們的最終目標是構建一個模塊化的 AI 技術棧,其中的數據可用性部分不僅包括數據發布,還包括儲存組件,由共識網路整合。我們讓共識網路處理數據可用性抽樣,一旦達成共識,我們就能在底層 Layer 1(如以太坊)上進行證明。我們的最終目標是構建一個可以運行任何高性能應用的鏈上系統,甚至支持鏈上訓練 AI 模型。
Jonny:你闡述得非常清楚,這不僅是 DA 的終極目標,更是整個區塊鏈行業的終極目標,也就是去中心化應用能與中心化應用競爭的時刻。去中心化是其最大的優勢,而當它們不僅去中心化,還成本更低、速度更快時,這確實是整個行業的終極目標。
Kamran:能再詳細說明一下你們的目標市場嗎?除了人工智慧和那些在區塊鏈上構建 AI 應用的人之外,你們希望哪些項目使用 0G?
Michael:你已經提到一個應用領域。我們正努力建設最大的去中心化 AI 社區,並希望有大量項目在我們之上構建。無論是 Pond 在構建大型圖模型,還是 Fraction AI 或 PublicAI 在做去中心化數據標註或清洗,甚至是 Allora、Talus Network 或 Ritual 這樣的執行層項目,我們都在努力為 AI 建設者建立最大的社區。這對我們來說是基本要求。
但實際上,任何高性能應用都可以在我們之上構建。以鏈上遊戲為例,5000 個用戶在非壓縮情況下,需要每秒 16MB 的數據可用性來實現完整的鏈上遊戲狀態。目前沒有任何 DA 層能做到這一點,也許 Solana 可以,但那與以太坊生態系統不同,支持也有限。所以,這樣的應用對我們來說也非常有趣,特別是如果它們結合了鏈上 AI 代理(如 NPC)。在這方面有很多交叉應用的潛力。
高頻 DeFi 是另一個例子。未來的全同態加密 (FHE)、數據市場、高頻深端應用,所有這些都需要非常大的數據吞吐量,需要一個能夠真正支持高性能的 DA 層。因此,任何高性能的 DApp 或 Layer2 都可以在我們之上構建。
模塊化的優勢:靈活選擇
Mehdi:你們在努力提高可擴展性、吞吐量,以及解決儲存組件導致的狀態膨脹問題。為什麼不直接推出一條完整的 Layer1 呢?如果你們有能力在技術上取得突破,為什麼要採用模塊化的方法,而不是創建一個擁有自己虛擬機的 Layer1 呢?採用模塊化堆棧背後的邏輯是什麼?
Michael:從根本上說,我們底層就是一個 Layer1,但我們堅信模塊化是未來構建應用的方式。而且我們是模塊化的,並不排除未來提供一個專門針對 AI 應用優化的執行環境。我們還沒完全確定這方面的路線圖,但這是可能的。
模塊化的核心在於選擇。你可以選擇結算層、執行環境和 DA 層。根據不同的用例,開發者可以選擇最佳方案。就像 Web2 中,TCP/IP 之所以成功,是因為它本質上是模塊化的,開發者可以自由選擇使用其不同方面。因此,我們希望給予開發者更多選擇,讓他們根據自己的應用類型,構建最合適的環境。
Mehdi:如果現在要選擇一個虛擬機,就你們正在考慮或努力實現的應用而言,市場上哪個虛擬機最適合?
Michael:我對此持非常實際的看法。如果為了吸引更多 Web2 開發者進入 Web3,那應該是某種類型的 WASM 虛擬機,可以用最常見的編程語言如 JavaScript 或 Python 來構建應用。這些語言不一定是鏈上開發的最佳選擇。
Move VM 在對象和吞吐量方面的設計非常出色。如果追求高性能,這是一個值得關注的選擇。如果考慮經過實戰檢驗的虛擬機,那就是 EVM,因為有大量的 Solidity 開發者。所以選擇取決於具體的使用場景。
優先級排序和社區建設
Jonny:我想聽聽你們面臨的最大障礙是什麼,還是說一切都一帆風順?我無法想象你們的事業如此龐大,不可能一直都那麼順利吧。
Michael:是的,我認為任何創業公司都不會一帆風順,總會有一些挑戰。從我的角度來看,最大的挑戰是確保我們能跟上節奏,因為我們必須非常出色地執行多個任務,不得不做出一些權衡以快速進入市場。
例如,我們本來想用定製的共識機制啟動,但那會延長四到五個月的啟動時間。所以我們決定在第一階段使用現成的共識機制,做一個強大的概念驗證,達到終局目標的一部分,比如每個共識層每秒 50 GB。然後在第二階段引入可橫向擴展的共識層,以實現無限的 DA 吞吐量。就像打開開關啟動另一台 AWS 服務器一樣,我們可以添加額外的共識層,從而提高整體數據可用性吞吐量。
另一個挑戰是確保我們能吸引到一流的人才加入公司。我們的團隊實力雄厚,包括資訊學奧林匹克競賽金牌得主和頂尖的計算機科學博士,所以我們需要市場營銷團隊和新加入的開發人員也能與之匹配。
Jonny:聽起來你們目前面臨的最大障礙是優先級排序,對吧?接受無法在短時間內做所有事情,必須做出一些權衡。關於競爭,你們如何看待?我猜 Celestia 或 EigenDA 對你們的具體用例不會構成嚴重威脅。
Michael:在 Web3 中,競爭很大程度上取決於社區。我們圍繞高性能和 AI 建設者建立了一個強大的社區,而 Celestia 和 Eigen 可能擁有更多的通用型社區。EigenDA 可能更關心如何帶來經濟安全並在 EigenLayer 上構建 AVS,而 Celestia 則更關心哪個 Layer2 想要降低他們的交易成本,並且沒有很多高吞吐量的應用。舉個例子,在 Celestia 上構建高頻 DeFi 非常具有挑戰性,因為你需要每秒多兆字節的吞吐量,這會完全堵塞 Celestia 網路。
從這個角度來看,我們確實感受不到威脅。我們正在建立一個非常強大的社區,即使有其他人出現,我們也已經擁有開發者和市場市佔率的網路效應,並有望隨之獲得更多資金。所以,最好的防禦就是我們的網路效應。
Web3 與 AI 的雙向依賴
Jonny:你們選擇人工智慧作為主要發力點,但為什麼 Web3 需要在其生態系統內託管人工智慧?反過來,人工智慧為什麼需要 Web3?這是一個雙向的問題,兩個問題的答案不一定都是肯定的。
Michael:當然,沒有 AI 的 Web3 是可能的。但我認為在未來 5 到 10 年裡,每家公司都會成為 AI 公司,因為 AI 將像網路那樣帶來巨大的變革。我們真的想在 Web3 中錯失這個機會嗎?我認為不會。根據麥肯錫的說法,AI 將釋放數兆美元的經濟價值,70% 的工作可以由 AI 自動化。那麼為什麼不利用它呢?沒有 AI 的 Web3 是可能存在的,但有了 AI,未來會更加美好。我們相信未來 5 到 10 年,區塊鏈上的大多數參與者將是 AI 代理,他們為你執行任務和交易。這將是一個非常令人興奮的世界,我們將擁有大量由 AI 驅動、為用戶量身定製的自動化服務。
反過來,我認為 AI 也絕對需要 Web3。我們的使命是讓 AI 成為一種公共產品。這從根本上說是一個激勵機制的問題。你如何確保 AI 模型不會作弊,如何確保它們做出最有利於人類的決策?對齊可以分解為激勵、驗證和安全組件,每一個組件都非常適合在區塊鏈環境中實現。區塊鏈可以通過代幣來幫助實現金融化和激勵,從而創造一個環境讓 AI 在經濟上不願意作弊。所有交易歷史也都在區塊鏈上。這裡做一個大膽的聲明,我認為從根本上說,從訓練數據到數據清洗組件,再到數據攝取和收集組件,所有東西都應該在鏈上,從而可以完整地追溯是誰提供了數據,然後 AI 模型又做出了什麼決策。
展望未來 5 到 10 年,如果 AI 系統在管理後勤、行政和製造系統,我會想知道模型的版本、它的決策,並對超越人類智能的模型進行監督,確保它與人類利益實現對齊。而把 AI 裝進一個可能作弊、不為人類最大利益做決策的黑匣子裡,我不確定我們是否能信任幾家公司始終如一地確保這種系統的安全和誠信,尤其是考慮到 AI 模型在未來 5 到 10 年可能具有的超級能力。
Kamran:我們都知道加密領域充滿了各種敘事,而你們如此專注於 AI 領域,從長遠來看,你認為這會成為你們的障礙嗎?正如你所說,你們的技術棧將遠優於我們現在所見到的。你認為圍繞 AI 的敘事和命名本身,會在未來阻礙你們的發展嗎?
Michael:我們不這麼認為。我們堅信在未來,每家公司都將成為一家 AI 公司。幾乎不會有哪家公司在其應用或平台中不以某種形式使用 AI。從這個角度來看,每當 GPT 推出一個新版本,比如擁有兆級參數,開啟了之前所不具備的新功能,達到了更高的性能水平。我認為熱度將持續存在,因為這是一個全新的範式。這是我們首次能夠用人類語言告訴計算機要做什麼。在某些情況下,你可以獲得超越普通人的能力,實現此前無法實現的流程自動化。例如,一些公司幾乎完全自動化了他們的銷售開發和客戶支持。隨著 GPT-5、GPT-6 等的發布,AI 模型將變得更加智能。我們需要確保在 Web3 中跟上這一趨勢,構建我們自己的開源版本。
AI 代理將在未來運行社會的某些部分,確保其以適當的方式被區塊鏈所治理至關重要。10 到 20 年內,AI 肯定會是主流,帶來巨大的社會變革。看看特斯拉的全自動駕駛模式就知道了,未來正在一天天變成現實。機器人也會進入我們的生活,為我們提供大量支持。我們基本上生活在一部科幻電影中。
暢行幣圈交易全攻略,專家駐群實戰交流
▌立即加入鉅亨買幣實戰交流 LINE 社群(點此入群)
不管是新手發問,還是老手交流,只要你想參與虛擬貨幣現貨交易、合約跟單、合約網格、量化交易、理財產品的投資,都歡迎入群討論學習!
- 從零開始學合約系列講座熱烈報名中
- 掌握全球財經資訊點我下載APP
文章標籤
上一篇
下一篇