✈️ Gate 廣場【Gate Travel 旅行分享官召集令】
廣場家人們注意啦!Gate Travel 已經上線~ 機票+酒店一站式預訂,還能用加密貨幣直接付款 💸
所以說,你的錢包和你的旅行夢終於可以談戀愛了 😎 💕
現在廣場開啓 #GateTravel旅行分享官# 活動,邀你來秀旅行靈感 & 使用體驗!💡
🌴 參與方式:
1️⃣ 在【廣場】帶話題 #Gate Travel 旅行分享官# 發帖
2️⃣ 你可以:
你最想用 Gate Travel 去的目的地(私藏小島 or 網紅打卡點都行)
講講用 Gate Travel 訂票/訂酒店的奇妙體驗
放放省錢/使用攻略,讓大家省到笑出聲
或者直接寫一篇輕鬆的 Gate Travel 旅行小故事
📦 獎勵安排,走起:
🏆 優秀分享官(1 名):Gate 旅行露營套裝
🎖️ 熱門分享官(3 名):Gate 旅行速乾套裝
🎉 幸運參與獎(5 名):Gate 國際米蘭旅行小夜燈
*海外用戶 旅行露營套裝 以 $100 合約體驗券,旅行速乾套裝 以 $50 合約體驗券折算,國際米蘭旅行小夜燈以 $30合約體驗券折算。
📌 優質內容將有機會得到官方帳號轉發翻牌提升社區曝光!
📌 帖文將綜合互動量、內容豐富度和創意評分。禁止小號刷貼,原創分享更容易脫穎而出!
🕒 8月20 18:00 - 8月28日 24:00 UTC+
融資千萬美元的 OpenLedger 如何重塑數據價值分配?
撰文:Haotian
數據標注這門「苦活累活」,正在悄悄變成香餑餑?這個由 Polychain 領投,獲得超過 1,120 萬美元融資的 @OpenledgerHQ,用 PoA+infini-gram 的獨特機制,瞄準的正是「數據價值分配」這個被長期忽視的痛點。來,從技術視角科普下:
1)說實話,當前 AI 行業最大的「原罪」就是數據價值分配的不公。OpenLedger 的 PoA(貢獻證明)要做的,就是給數據貢獻建立一套「版權追蹤系統」。
具體而言:數據貢獻者將內容上傳到特定領域的 DataNets,每個數據點都會與貢獻者元數據和內容哈希一起被永久記錄。
當模型基於這些數據集訓練後,歸因過程會在推理階段進行也就是模型生成輸出的時刻。PoA 通過分析匹配範圍或影響分數來追蹤哪些數據點影響了該輸出,這些記錄決定了每個貢獻者數據的比例影響。
當模型通過推理產生費用時,PoA 確保利潤根據每個貢獻者的影響準確分配——創建了一個透明、公平且鏈上的獎勵機制。
換句話說,PoA 解決的是數據經濟學的根本矛盾。過去的邏輯很簡單粗暴——AI 公司免費獲取海量數據,然後靠模型商業化賺得盆滿鉢滿,數據貢獻者卻什麼都拿不到。但 PoA 通過技術手段實現了「數據私有化」,讓每個數據點都能產生明確的經濟價值。
我覺得,這種從「白嫖模式」到「按勞分配」的轉換機制一旦跑通,數據貢獻的激勵邏輯就完全變了。
而且,PoA 採用了分層策略來解決不同規模模型的歸因問題:幾百萬參數的小模型,可以通過分析模型影響函數來估算每個數據點的影響程度,計算量還能勉強承受,而中大型參數模型用這種方法在計算上變得不可行且低效。這時候就必須祭出 Infini-gram 這個大殺器了。
2)問題來了,何爲 infini-gram 技術?它要解決的問題聽起來就很變態:在中大型參數的黑盒模型中,精確追蹤每個輸出 Token 的數據來源。
傳統歸因方法主要靠分析模型影響函數,但在大模型面前基本歇菜。原因很簡單:模型越大,內部計算越復雜,分析成本就指數級增長,在計算上變得不可行且低效。這在商業應用中完全不現實。
Infini-gram 完全換了個思路:既然模型內部太復雜,那就直接在原始數據中找匹配。它基於後綴數組構建索引,用動態選擇的最長匹配後綴替代傳統的固定窗口 n-gram。簡單理解,就是當模型輸出某個序列時,Infini-gram 會爲每個 Token 上下文識別訓練數據中最長的精確匹配。
這樣一來帶來的性能數據着實很驚豔,1.4 萬億 Token 數據集,查詢只需 20 毫秒,存儲每 Token 僅 7 字節。更關鍵的是無需分析模型內部結構,無需復雜計算,就能精確歸因。對那些視模型爲商業機密的 AI 公司來說,這簡直是量身定制的解決方案。
要知道,市面上的數據歸因方案要麼效率低下,要麼精度不夠,要麼需要訪問模型內部。Infini-gram 算是在這三個維度都找到了平衡點,
3)除此之外,我感覺 OpenLedger 提出的 dataNets 鏈上數據集概念特別新潮。不同於傳統數據交易的一錘子買賣,DataNets 讓數據貢獻者可持續享有數據被使用時在推理中的收益分成。
過去數據標注是苦差事,收益微薄且一次性。現在變成了持續收益的資產,激勵邏輯完全不同。
當大部分 AI+Crypto 項目還在做算力租賃、模型訓練這些相對成熟的方向時,OpenLedger 選擇了數據歸因這塊最硬的骨頭。這套技術棧可能會重新定義 AI 數據的供給端。
畢竟在數據質量爲王的時代,誰能解決數據價值分配問題,誰就能吸引到最優質的數據資源。
以上。
總的來說,OpenLedgerPoA + Infini-gram 的組合不僅解決了技術難題,更重要的是爲整個行業提供了全新的價值分配邏輯。
在算力軍備賽逐漸降溫、數據質量競爭愈發激烈的當下,這類技術路線肯定不會是孤品。這個賽道會出現多種方案並行競爭的局面——有的專注歸因精度,有的主打成本效率,有的則在易用性上做文章。各自都在探索數據價值分配的最優解。
最終哪家才能跑出來,說到底還是要看能不能真正吸引到足夠多的數據提供者和開發者。