📢 Gate廣場 #MBG任务挑战# 發帖贏大獎活動火熱開啓!
想要瓜分1,000枚MBG?現在就來參與,展示你的洞察與實操,成爲MBG推廣達人!
💰️ 本期將評選出20位優質發帖用戶,每人可輕鬆獲得50枚MBG!
如何參與:
1️⃣ 調研MBG項目
對MBG的基本面、社區治理、發展目標、代幣經濟模型等方面進行研究,分享你對項目的深度研究。
2️⃣ 參與並分享真實體驗
參與MBG相關活動(包括CandyDrop、Launchpool或現貨交易),並曬出你的參與截圖、收益圖或實用教程。可以是收益展示、簡明易懂的新手攻略、小竅門,也可以是現貨行情點位分析,內容詳實優先。
3️⃣ 鼓勵帶新互動
如果你的帖子吸引到他人參與活動,或者有好友評論“已參與/已交易”,將大幅提升你的獲獎概率!
MBG熱門活動(帖文需附下列活動連結):
Gate第287期Launchpool:MBG — 質押ETH、MBG即可免費瓜分112,500 MBG,每小時領取獎勵!參與攻略見公告:https://www.gate.com/announcements/article/46230
Gate CandyDrop第55期:CandyDrop x MBG — 通過首次交易、交易MBG、邀請好友註冊交易即可分187,500 MBG!參與攻略見公告:https://www.gate.com/announcements
AI與DePIN融合:分散化GPU網路崛起與未來趨勢分析
AI與DePIN的交匯點:分散化GPU網路的興起
自2023年以來,AI和DePIN成爲Web3領域的熱門趨勢,市值分別達到300億美元和230億美元。本文聚焦兩者的交叉領域,探討相關協議的發展情況。
在AI技術棧中,DePIN網路通過計算資源爲AI提供實用性。大型科技公司的發展導致GPU短缺,使其他開發人員難以獲得足夠的GPU進行計算。這往往迫使開發人員選擇中心化雲提供商,但由於需要簽署不靈活的長期高性能硬件合同,效率低下。
DePIN本質上提供了一種更靈活且更具成本效益的替代方案,通過代幣獎勵激勵資源貢獻。AI領域的DePIN將GPU資源從個人所有者衆包到數據中心,爲需要訪問硬件的用戶形成統一的供應。這些網路不僅爲需要計算能力的開發人員提供可定制性和按需訪問,還爲GPU所有者提供額外收入。
市場上存在衆多AI DePIN網路,識別它們之間的差異並找到合適的網路可能具有挑戰性。接下來我們將探討各協議的作用、目標以及已取得的具體成果。
AI DePIN網路概述
這裏提到的每個項目都有類似的目的 - GPU計算市場網路。本節旨在研究各項目的亮點、市場重點及成就。通過了解它們的關鍵基礎設施和產品,我們可以深入分析它們之間的差異。
Render是提供GPU計算能力的P2P網路先驅,最初專注於內容創作圖形渲染,後來將範圍擴展到包括從神經輻射場(NeRF)到生成AI的各種AI計算任務。
Akash將自己定位爲支持存儲、GPU和CPU計算的傳統平台(如AWS)的"超級雲"替代品。利用Akash容器平台和Kubernetes管理的計算節點等開發人員友好型工具,它能夠跨環境無縫部署軟件,從而能夠運行任何雲原生應用程序。
io.net提供對分布式GPU雲集羣的訪問,這些集羣專門用於AI和ML用例。它聚合了來自數據中心、加密礦工和其他去中心化網路等領域的GPU。
Gensyn提供專注於機器學習和深度學習計算的GPU計算能力。它聲稱通過結合使用諸如用於驗證工作的學習證明、用於重新運行驗證工作的基於圖形的精確定位協議以及涉及計算提供商的質押和削減的激勵遊戲等概念,實現了更高效的驗證機制。
Aethir專門搭載企業GPU,專注於計算密集型領域,主要是人工智能、機器學習(ML)、雲遊戲等。其網路中的容器充當執行基於雲的應用程序的虛擬端點,將工作負載從本地設備轉移到容器,以實現低延遲體驗。
Phala Network充當Web3 AI解決方案的執行層。其區塊鏈是一種無需信任的雲計算解決方案,通過使用其可信執行環境(TEE)設計來處理隱私問題。其執行層不是用作AI模型的計算層,而是使AI代理能夠由鏈上的智能合約控制。
項目比較
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |--------|-------------|------------------|---------------------|---------|---------------|----------| | 硬件 | GPU & CPU | GPU & CPU | GPU & CPU | GPU | GPU | CPU | | 業務重點 | 圖形渲染和AI | 雲計算、渲染和AI | AI | AI | 人工智能、雲遊戲和電信 | 鏈上 AI 執行 | | AI任務類型 | 推理 | 兼顧 | 兼顧 | 訓練 | 訓練 | 執行 | | 工作定價 | 基於表現的定價 | 反向拍賣 | 市場定價 | 市場定價 | 招標系統 | 權益計算 | | 區塊鏈 | Solana | Cosmos | Solana | Gensyn | Arbitrum | Polkadot | | 數據隱私 | 加密&散列 | mTLS 身分驗證 | 數據加密 | 安全映射 | 加密 | TEE | | 工作費用 | 每項工作 0.5-5% | 20% USDC, 4% AKT | 2% USDC,0.25% 準備金費用 | 費用低廉 | 每個session 20% | 與質押金額成比例 | | 安全 | 渲染證明 | 權益證明 | 計算證明 | 權益證明 | 渲染能力證明 | 繼承自中繼鏈 | | 完成證明 | - | - | 時間鎖證明 | 學習證明 | 渲染工作證明 | TEE 證明 | | 質量保證 | 爭議 | - | - | 核實者和舉報人 | 檢查器節點 | 遠程證明 | | GPU 集羣 | 否 | 是 | 是 | 是 | 是 | 否 |
重要性
集羣和並行計算的可用性
分布式計算框架實現了GPU集羣,在不影響模型準確性的情況下提供更高效的訓練,同時增強了可擴展性。訓練復雜AI模型需要強大的計算能力,這通常必須依靠分布式計算來滿足其需求。從直觀角度看,OpenAI的GPT-4模型擁有超過1.8萬億個參數,在3-4個月內使用128個集羣中的約25,000個Nvidia A100 GPU進行訓練。
此前,Render和Akash僅提供單一用途的GPU,可能會限制其對GPU的市場需求。不過,大多數重點項目現在都已整合了集羣以實現並行計算。io.net與Render、FIL和Aethir等其他項目合作,將更多GPU納入其網路,並已成功在24年第一季度部署了超過3,800個集羣。盡管Render不支持集羣,但它的工作原理與集羣類似,將單個幀分解爲多個不同的節點,以同時處理不同範圍的幀。Phala目前僅支持CPU,但允許將CPU工作器集羣化。
將集羣框架納入AI工作流程網路非常重要,但滿足AI開發人員需求所需的集羣GPU數量和類型是一個單獨的問題。
數據隱私
開發AI模型需要使用大量數據集,這些數據集可能來自各種來源,形式各異。個人醫療記錄、用戶財務數據等敏感數據集可能面臨暴露給模型提供商的風險。三星因擔心敏感代碼上傳到平台會侵犯隱私而內部禁止使用ChatGPT,微軟的38TB私人數據泄露事故進一步凸顯了在使用AI時採取足夠安全措施的重要性。因此,擁有各種數據隱私方法對於將數據控制權交還給數據提供商至關重要。
所涵蓋的大多數項目都使用某種形式的數據加密來保護數據隱私。數據加密可確保網路中從數據提供者到模型提供者(數據接收者)的數據傳輸受到保護。Render在將渲染結果發布回網路時使用加密和哈希處理,而io.net和Gensyn則採用某種形式的數據加密。Akash使用mTLS身分驗證,僅允許租戶選擇的提供商接收數據。
然而,io.net最近與Mind Network合作推出了完全同態加密(FHE),允許在無需先解密的情況下處理加密數據。通過使數據能夠安全地傳輸用於培訓目的而無需泄露身分和數據內容,這項創新可以比現有的加密技術更好地確保數據隱私。
Phala Network引入了TEE,即連接設備主處理器中的安全區域。通過這種隔離機制,它可以防止外部進程訪問或修改數據,無論其權限級別如何,即使是對機器具有物理訪問權限的個人。除了TEE之外,它還在其zkDCAP驗證器和jtee命令行界面中結合了zk-proofs的使用,以便與RiscZero zkVM集成的程序。
計算完成證明和質量檢查
這些項目提供的GPU可爲一系列服務提供計算能力。由於這些服務範圍廣泛,從渲染圖形到AI計算,因此此類任務的最終質量可能不一定總是符合用戶的標準。可以使用完成證明的形式來表示用戶租用的特定GPU確實用於運行所需的服務,並且質量檢查對請求完成此類工作的用戶有益。
計算完成後,Gensyn和Aethir都會生成證明以表明工作已完成,而io.net的證明則表明租用的GPU的性能已得到充分利用且沒有出現問題。Gensyn和Aethir都會對已完成的計算進行質量檢查。對於Gensyn,它使用驗證者重新運行生成的證明的部分內容以與證明進行核對,而舉報人則充當對驗證者的另一層檢查。同時,Aethir使用檢查節點來確定服務質量,對低於標準的服務進行處罰。Render建議使用爭議解決流程,如果審查委員會發現節點存在問題,則削減該節點。Phala完成後會生成TEE證明,確保AI代理在鏈上執行所需的操作。
硬件統計數據
| | Render | Akash | io.net | Gensyn | Aethir | Phala | |-------------|--------|-------|--------|------------|------------|--------| | GPU數量 | 5600 | 384 | 38177 | - | 40000+ | - | | CPU數量 | 114 | 14672 | 5433 | - | - | 30000+ | | H100/A100數量 | - | 157 | 2330 | - | 2000+ | - | | H100費用/小時 | - | $1.46 | $1.19 | - | - | - | | A100費用/小時 | - | $1.37 | $1.50 | $0.55 (預計) | $0.33 (預計) | - |
高性能GPU的要求
由於AI模型訓練需要性能最佳的GPU,因此傾向於使用Nvidia的A100和H100等GPU,盡管後者在市場上價格很高,但它們提供最佳質量。A100不僅能夠訓練所有工作負載,而且還能以更快的速度完成訓練,這只能說明市場對這種硬件的重視程度。由於H100的推理性能比A100快4倍,因此它現在已成爲首選GPU,尤其是對於正在訓練自己的LLM的大型公司而言。
對於去中心化的GPU市場提供商來說,要想與Web2同行競爭,它不僅要提供更低的價格,還要滿足市場的實際需求。2023年,Nvidia向中心化的大型科技公司交付了超過50萬臺H100,這使得獲取盡可能多的同等硬件以與大型雲提供商競爭變得成本高昂且困難重重。因此,考慮這些項目可以以低成本帶入其網路的硬件數量對於將這些服務擴展到更大的客戶羣非常重要。
雖然每個項目都在AI和ML計算方面有業務,但它們在提供計算的能力方面有所不同。Akash總共只有150多個H100和A100單元,而io.net和Aethir則分別獲得了2000多個單元。通常,從頭開始預訓練LLM或生成模型需要集羣中至少248到2000多個GPU,因此後兩個項目更適合大型模型計算。
根據開發人員所需的集羣大小,目前市場上這些去中心化GPU服務的成本已經比中心化GPU服務低得多。Gensyn和Aethir都宣稱能夠以每小時不到1美元的價格租用相當於A100的硬件,但這仍需要隨着時間的推移得到證明。
網路連接的GPU集羣擁有大量GPU,每小時成本較低,但與NVLink連接的GPU相比,