探討AI Layer1:尋找鏈上DeAI的沃土

Blockbeats
06-10
原文標題:《Biteye & PANews 聯合發佈 AI Layer 1 研報:尋找鏈上 DeAI 的沃土》
原文作者:@anci_hu49074 (Biteye)、@Jesse_meta (Biteye)、@lviswang (Biteye)、@0xjacobzhao (Biteye)、@bz1022911(PANews)

概述

背景

近年來,OpenAI、Anthropic、Google、Meta 等頭部科技公司不斷推動大語言模型(LLM)的飛速發展。LLM 在各行各業展現出前所未有的能力,極大地拓展了人類的想象空間,甚至在部分場景下展現了替代人類勞動的潛力。然而,這些技術的核心卻牢牢掌握在少數中心化科技巨頭手中。憑藉雄厚的資本和對高昂算力資源的把控,這些公司建立起了難以逾越的壁壘,使絕大多數開發者和創新團隊難以與之抗衡。

來源:BONDAI 趨勢分析報告

同時,在 AI 快速演進的初期,社會輿論往往聚焦於技術帶來的突破和便利,而對隱私保護、透明度、安全性等核心問題的關注卻相對不足。長期來看,這些問題將深刻影響 AI 行業的健康發展和社會接受度。如果無法妥善解決,AI“向善”還是“向惡”的爭議將愈發突出,而中心化巨頭在逐利本能驅動下,往往缺乏足夠的動力去主動應對這些挑戰。

區塊鏈技術憑藉其去中心化、透明和抗審查的特性,爲 AI 行業的可持續發展提供了新的可能性。目前,Solana、Base 等主流區塊鏈上已經湧現出衆多“Web3 AI”應用。但深入分析可以發現,這些項目仍存在諸多問題:一方面,去中心化程度有限,關鍵環節和基礎設施仍依賴中心化雲服務,meme 屬性過重,難以支撐真正意義上的開放生態;另一方面,與 Web2 世界的 AI 產品相比,鏈上 AI 在模型能力、數據利用和應用場景等方面仍顯侷限,創新深度和廣度有待提升。

要真正實現去中心化 AI 的願景,使區塊鏈能夠安全、高效、民主地承載大規模 AI 應用,並在性能上與中心化方案相抗衡,我們需要設計一條專爲 AI 量身打造的 Layer1 區塊鏈。這將爲 AI 的開放創新、治理民主和數據安全提供堅實基礎,推動去中心化 AI 生態的繁榮發展。

AI Layer 1 的核心特性

AI Layer 1 作爲一條專爲 AI 應用量身定製的區塊鏈,其底層架構和性能設計緊密圍繞 AI 任務的需求,旨在高效支撐鏈上 AI 生態的可持續發展與繁榮。具體而言,AI Layer 1 應具備以下核心能力:

高效的激勵與去中心化共識機制

AI Layer 1 的核心在於構建一個開放的算力、存儲等資源的共享網絡。與傳統區塊鏈節點主要聚焦於賬本記賬不同,AI Layer 1 的節點需要承擔更復雜的任務,不僅要提供算力、完成 AI 模型的訓練與推理,還需貢獻存儲、數據、帶寬等多樣化資源,從而打破中心化巨頭在 AI 基礎設施上的壟斷。這對底層共識和激勵機制提出了更高要求:AI Layer 1 必須能夠準確評估、激勵並驗證節點在 AI 推理、訓練等任務中的實際貢獻,實現網絡的安全性與資源的高效分配。唯有如此才能保證網絡的穩定與繁榮,並有效降低整體算力成本。

卓越的高性能與異構任務支持能力

AI 任務,尤其是 LLM 的訓練與推理,對計算性能和並行處理能力提出了極高的要求。更進一步,鏈上 AI 生態往往還需支持多樣化、異構的任務類型,包括不同模型結構、數據處理、推理、存儲等多元場景。AI Layer 1 必須在底層架構上針對高吞吐、低延遲和彈性並行等需求進行深度優化,並預設對異構計算資源的原生支持能力,確保各種 AI 任務都能高效運行,實現從“單一型任務”到“複雜多元生態”的平滑擴展。

可驗證性與可信輸出保障

AI Layer 1 不僅要防止模型作惡、數據篡改等安全隱患,更要從底層機制上確保 AI 輸出結果的可驗證性和對齊性。通過集成可信執行環境(TEE)、零知識證明(ZK)、多方安全計算(MPC)等前沿技術,平臺能夠讓每一次模型推理、訓練和數據處理過程都可以被獨立驗證,確保 AI 系統的公正性和透明度。同時,這種可驗證性還能幫助用戶明確 AI 輸出的邏輯和依據,實現“所得即所願”,提升用戶對 AI 產品的信任和滿意度。

數據隱私保護

AI 應用經常涉及用戶敏感數據,在金融、醫療、社交等領域,數據隱私保護尤爲關鍵。AI Layer 1 應在保障可驗證性的同時,採用基於加密的數據處理技術、隱私計算協議和數據權限管理等手段,確保數據在推理、訓練及存儲等全過程中的安全性,有效防止數據泄露和濫用,消除用戶在數據安全方面的後顧之憂。

強大的生態承載與開發支持能力

作爲 AI 原生的 Layer 1 基礎設施,平臺不僅要具備技術上的領先性,還需爲開發者、節點運營者、AI 服務提供商等生態參與者提供完善的開發工具、集成 SDK、運維支持和激勵機制。通過持續優化平臺可用性和開發者體驗,促進豐富多元的 AI 原生應用落地,實現去中心化 AI 生態的持續繁榮。

基於以上背景與期望,本文將詳細介紹包括 Sentient、Sahara AI、Ritual 、Gensyn、Bittensor 以及 0G 在內的六個 AI Layer1 代表項目,系統梳理賽道的最新進展,剖析項目發展現狀,並探討未來趨勢。

Sentient:構建忠誠的開源去中心化 AI 模型

項目概述

Sentient 是一個開源協議平臺,正在打造一條 AI Layer1 區塊鏈 ( 初始階段爲 Layer 2,之後將遷移至 Layer 1),通過結合 AI Pipeline 和區塊鏈技術,構建去中心化的人工智能經濟體。其核心目標是通過“OML”框架(開放、可盈利、忠誠)解決中心化 LLM 市場中的模型歸屬、調用追蹤和價值分配問題,使 AI 模型實現鏈上所有權結構、調用透明化和價值分潤化。Sentient 的願景是讓任何人都能夠構建、協作、擁有並將 AI 產品貨幣化,從而推動一個公平、開放的 AI Agent 網絡生態。

Sentient Foundation 團隊匯聚了全球頂尖的學術專家、區塊鏈創業者和工程師,致力於構建一個社區驅動、開源且可驗證的 AGI 平臺。核心成員包括普林斯頓大學教授 Pramod Viswanath 和印度科學研究所教授 Himanshu Tyagi,分別負責 AI 安全性與隱私保護,同時由 Polygon 聯合創始人 Sandeep Nailwal 主導區塊鏈戰略與生態佈局。團隊成員背景橫跨 Meta、Coinbase、Polygon 等知名企業,以及普林斯頓大學、印度理工學院等頂尖高校,覆蓋 AI/ML、NLP、計算機視覺等領域,協力推動項目落地。

作爲 Polygon 聯合創始人 Sandeep Nailwal 的二次創業項目,Sentient 在成立之初便自帶光環,擁有豐富的資源、人脈和市場認知度,爲項目發展提供了強大背書。2024 年中,Sentient 完成了 8500 萬美元的種子輪融資,由 Founders Fund、Pantera 和 Framework Ventures 領投,其他投資機構包括 Delphi、Hashkey 和 Spartan 等數十家知名 VC。

設計架構與應用層

1、基建層

核心架構

Sentient 的核心架構由 AI 管道(AI Pipeline)和 區塊鏈系統 兩部分組成:

AI 管道是開發和訓練“忠誠 AI”工件的基礎,包含兩個核心過程:​

· 數據策劃(Data Curation):​由社區驅動的數據選擇過程,用於模型的對齊。​

· 忠誠度訓練(Loyalty Training):​確保模型保持與社區意圖一致的訓練過程。

區塊鏈系統爲協議提供透明性和去中心化控制,確保 AI 工件的所有權、使用跟蹤、收益分配與公平治理。具體架構分爲四層:

· 存儲層:存儲模型權重與指紋註冊信息

· 分發層:授權合約控制模型調用入口;

· 訪問層:通過權限證明驗證用戶是否授權;

· 激勵層:收益路由合約將每次調用支付分配給訓練者、部署者與驗證者。

Sentient 系統工作流程圖

OML 模型框架

OML 框架(開放 Open、可貨幣化 Monetizable、忠誠 Loyal)是 Sentient 提出的核心理念,旨在爲開源 AI 模型提供明確的所有權保護和經濟激勵機制。通過結合鏈上技術和 AI 原生加密學,具有以下特點:

· 開放性: 模型必須開源,代碼和數據結構透明,便於社區復現、審計和改進。

· 貨幣化: 每次模型調用都會觸發收益流,鏈上合約會將收益分配給訓練者、部署者和驗證者。

· 忠誠性: 模型歸屬於貢獻者社區,升級方向和治理由 DAO 決定,使用和修改受到加密機制的控制。

AI 原生加密學(AI-native Cryptography)

AI 原生加密是利用 AI 模型的連續性、低維流形結構與模型可微特性,開發出“可驗證但不可移除”的輕量級安全機制。其核心技術是:

· 指紋嵌入:在訓練時插入一組隱蔽的 query-response 鍵值對形成模型唯一簽名;

· 所有權驗證協議:通過第三方探測器(Prover)以 query 提問形式驗證指紋是否保留;

· 許可調用機制:調用前需獲取模型所有者簽發的“權限憑證”,系統再據此授權模型對該輸入解碼並返回準確答案。

這種方式可在無重加密成本的情況下實現“基於行爲的授權調用 + 所屬驗證”。

模型確權與安全執行框架

Sentient 當前採用的即爲 Melange 混合安全:以指紋確權、TEE 執行、鏈上合約分潤結合。其中指紋方法爲 OML 1.0 實現主線,強調“樂觀安全(Optimistic Security)”思想,即默認合規、違規後可檢測並懲罰。

指紋機制 是 OML 的關鍵實現,它通過嵌入特定的“問題 - 回答”對,讓模型在訓練階段生成獨特的簽名。通過這些簽名,模型擁有者可以驗證歸屬,防止未經授權的複製和商業化。該機制不僅保護了模型開發者的權益,還爲模型的使用行爲提供了可追蹤的鏈上記錄。

此外,Sentient 推出了 Enclave TEE 計算框架,利用可信執行環境(如 AWS Nitro Enclaves)確保模型只響應授權請求,防止未經許可的訪問和使用。雖然 TEE 依賴硬件且存在一定安全隱患,但其高性能和實時性優勢使其成爲當前模型部署的核心技術。

未來,Sentient 計劃引入零知識證明(ZK)和全同態加密(FHE)技術,進一步增強隱私保護和可驗證性,爲 AI 模型的去中心化部署提供更成熟的解決方案。

OML 提出五種可驗證性方法的評估和對比

2、應用層

目前,Sentient 的產品主要包括去中心化聊天平臺 Sentient Chat、開源模型 Dobby 系列以及 AI Agent 框架

Dobby 系列模型

SentientAGI 已發佈多個“Dobby”系列模型,主要基於 Llama 模型,聚焦自由、去中心化和加密貨幣支持的價值觀。其中,leashed 版本風格較爲約束和理性,適合穩健輸出的場景;unhinged 版本偏向自由大膽,具備更豐富的對話風格。Dobby 模型已經被集成到多個 Web3 原生項目中,如 Firework AI 和 Olas,用戶也可以在 Sentient Chat 中直接調用這些模型進行互動。Dobby 70B 是有史以來最去中心化的模型,擁有超過 60 萬名所有者(持有 Dobby 指紋 NFT 的人同時也是該模型的共同擁有者)。

Sentient 還計劃推出 Open Deep Search,這是一個試圖超越 ChatGPT 和 Perplexity Pro 的搜索代理系統。該系統結合了 Sensient 的搜索功能(如查詢重述、文檔處理)與推理代理,通過開源 LLM(如 Llama 3.1 和 DeepSeek)提升搜索質量。在 Frames Benchmark 上,其性能已超過其他開源模型,甚至接近部分閉源模型,展現了強大的潛力。

Sentient Chat:去中心化聊天與鏈上 AI Agent 集成

Sentient Chat 是一個去中心化聊天平臺,結合了開源大型語言模型(如 Dobby 系列)與先進的推理代理框架,支持多代理集成和複雜任務執行。平臺內嵌的推理代理可以完成搜索、計算、代碼執行等複雜任務,爲用戶提供高效的交互體驗。此外,Sentient Chat 還支持鏈上智能體的直接集成,目前包括占星學 Agent Astro247、加密分析 Agent QuillCheck、錢包分析 Agent Pond Base Wallet Summary 和靈脩指引 Agent ChiefRaiin。用戶可以根據需求選擇不同的智能代理進行互動。Sentient Chat 將作爲代理的分發和協調平臺使用。用戶的提問可以被路由到任意一個已集成的模型或代理,以提供最優的響應結果。

AI Agent 框架

Sentient 提供兩大 AI Agent 框架:

· Sentient Agent Framework:一個輕量級開源框架,專注於通過自然語言指令實現 Web 任務自動化(如搜索、播放視頻)。框架支持構建具備感知、規劃、執行和反饋閉環的智能體,適合鏈下 Web 任務的輕量化開發。

· Sentient Social Agent:針對社交平臺(如 Twitter、Discord 和 Telegram)開發的 AI 系統,支持自動化互動與內容生成。通過多智能體協作,該框架能夠理解社交環境,併爲用戶提供更加智能化的社交體驗,同時可與 Sentient Agent Framework 集成,進一步擴展其應用場景。

生態和參與方式

Sentient Builder Program 目前設有 100 萬美元資助計劃,旨在鼓勵開發者利用其開發套件,構建通過 Sentient Agent API 接入、並可在 Sentient Chat 生態中運行的 AI Agent。Sentient 官網公佈的生態夥伴涵蓋 Crypto AI 多個領域的項目方團隊,如下

Sentient 生態圖

此外,Sentient Chat 目前處於測試階段,需要通過邀請碼進入白名單後纔可訪問,普通用戶可以提交 waitlist。根據官方信息,已有超過 50,000 名用戶和 1,000,000 次查詢記錄。Sentient Chat 的候補名單上有 2,000,000 名用戶等待加入。

挑戰和展望

Sentient 從模型端入手,致力於解決當前大規模語言模型(LLM)面臨的不對齊、不可信等核心問題,通過 OML 框架和區塊鏈技術,爲模型提供明確的所有權結構、使用追蹤和行爲約束,極大推動了去中心化開源模型的發展。

憑藉 Polygon 聯合創始人 Sandeep Nailwal 的資源支持,以及頂級 VC 和行業夥伴的背書,Sentient 在資源整合和市場關注度上處於領先地位。不過在當前市場對高估值項目逐漸祛魅的背景下,Sentient 能否交付真正具有影響力的去中心化 AI 產品,將是其能否成爲去中心化 AI 所有權標準的重要考驗。這些努力不僅關乎 Sentient 自身的成功,也對整個行業的信任重建和去中心化發展具有深遠影響。

Sahara AI:打造人人蔘與的去中心化 AI 世界

項目概述

Sahara AI 是一個爲 AI × Web3 新範式而生的去中心化基礎設施致力於構建一個開放、公平且協作的人工智能經濟。項目通過去中心化賬本技術,實現數據集、模型和智能 Agent 的鏈上管理與交易,確保數據和模型的主權與可追溯性。同時,Sahara AI 引入透明、公平的激勵機制,讓所有貢獻者,包括數據提供者、標註員和模型開發者,都能在協作過程中獲得不可篡改的收入回報。平臺還通過一個無需許可的“版權”系統,保護貢獻者對 AI 資產的所有權和歸屬,並鼓勵開放共享和創新。

Sahara AI 提供從數據收集、標註到模型訓練、AI Agent 創建、AI 資產交易等服務的一站式解決方案,覆蓋整個 AI 生命週期,成爲滿足 AI 開發需求的全方位生態平臺。其產品質量和技術能力已獲得微軟亞馬遜、麻省理工學院(MIT)、Motherson 集團和 Snap 等全球頂尖企業和機構的高度認可,展現出強大的行業影響力和廣泛的適用性。

Sahara 不只是一個科研項目,而是由一線技術創業者與投資人聯合推動、具備落地導向的深科技平臺。其核心架構有可能成爲 AI × Web3 應用落地的關鍵支點。Sahara AI 已獲得 Pantera Capital、Binance Labs、紅杉中國等頭部機構累計 4,300 萬美元的投資支持;由南加州大學終身教授、2023 年度三星研究員 Sean Ren 和前 Binance Labs 投資總監 Tyler Zhou 共同創立,核心團隊成員來自斯坦福大學、加州大學伯克利分校、微軟、谷歌、Binance 等頂尖機構,融合了學術界與產業界的深厚積累。

設計架構

Sahara AI 架構圖

1、基礎層

Sahara AI 的基礎層分爲:1. 鏈上層用於 AI 資產的註冊與變現,2. 鏈下層用於運行 Agents 與 AI 服務。由鏈上系統與鏈下系統協同構成,負責 AI 資產的註冊、確權、執行與收益分配,支撐整個 AI 生命週期的可信協作。

Sahara 區塊鏈與 SIWA 測試網(鏈上基礎設施)

SIWA 測試網是 Sahara 區塊鏈的第一個公開版本。Sahara 區塊鏈協議(SBP)是 Sahara 區塊鏈的核心,這是一套專爲 AI 構建的智能合約系統,實現了 AI 資產的鏈上所有權、溯源記錄與收益分配。核心模塊包括資產註冊系統、所有權協議、貢獻追蹤、權限管理、收益分配、執行證明等,構建出面向 AI 的“鏈上操作系統”。

AI 執行協議(鏈下基礎設施)

爲支撐模型運行與調用的可信性,Sahara 同時構建了鏈下的 AI 執行協議體系,結合可信執行環境(TEE),支持 Agent 創建、部署、運行與協同開發。每次任務執行均自動生成可驗證記錄,並上傳鏈上,確保全流程可追溯、可驗證。鏈上系統負責註冊、授權與所有權記錄,鏈下 AI 執行協議則支持 AI Agent 的實時運行與服務交互。由於 Sahara 跨鏈兼容,因此基於 Sahara AI 的基礎設施構建的應用可以部署在任何鏈上,甚至鏈下。

2、應用層

Sahara AI 數據服務平臺(DSP)

數據服務平臺(DSP)是 Sahara 應用層的基礎模塊,任何人都可通過 Sahara ID 接受數據任務,參與數據標註、去噪與審覈,並獲得鏈上積分獎勵(Sahara Points)作爲貢獻憑證。這一機制不僅保障了數據溯源與權屬,同時推動“貢獻 - 獎勵 - 模型優化”形成閉環。目前進行到了第四季活動,這也是普通用戶可以參與貢獻的主要方式。

在此基礎上,爲了鼓勵用戶提交高質量的數據與服務,通過介紹雙重激勵機制,不僅可獲得 Sahara 提供的獎勵,還能獲得生態夥伴的額外回報,實現一次貢獻、多方收益。以數據貢獻者爲例,一旦其數據被模型反覆調用或用於生成新應用,即可持續獲取收益,真正參與 AI 價值鏈。這一機制不僅延長了數據資產的生命週期,也爲協作與共建注入了強大動能,例如,BNB Chain 上的 MyShell 就通過 DSP 衆包生成定製數據集,提升模型性能,用戶則獲得 MyShell 代幣激勵,形成雙贏閉環。

AI 企業可以基於數據服務平臺來衆包定製數據集,通過發佈專門的數據任務,快速從位於全球的數據標註者獲得響應。AI 企業不再只依賴傳統中心化數據供應商,就可大規模獲取高質量標註數據。

Sahara AI Developer Platform

Sahara AI Developer Platform 是一個面向開發者與企業的一站式 AI 構建與運營平臺,提供從數據獲取、模型訓練到部署執行與資產變現的全流程支持。用戶可以直接調用 Sahara DSP 中的高質量數據資源,將其用於模型的訓練與微調;處理完成的模型可在平臺內進行組合、註冊並上架至 AI 市場,通過 Sahara 區塊鏈實現所有權確權與靈活授權。

Studio 同時整合去中心化計算能力,支持模型訓練與 Agent 的部署運行,確保計算過程的安全性與可驗證性。開發者還可將關鍵數據和模型存儲,進行加密託管和權限控制,防止未授權訪問。通過 Sahara AI AI Developer Platform,開發者無需自建基礎設施,即可以更低門檻構建、部署並商業化 AI 應用,並通過協議化機制全面融入鏈上 AI 經濟體系。

AI Markerplace

Sahara AI Marketplace 是一個面向模型、數據集與 AI Agent 的去中心化資產市場。它不僅支持資產的註冊、交易與授權,更構建了一套透明且可追蹤的收益分配機制。開發者可以將自己構建的模型或收集的數據集註冊爲鏈上資產,設置靈活的使用授權與分潤比例,系統將根據調用頻次自動執行收益結算。數據貢獻者也能因其數據被重複調用而持續獲得分潤,實現“持續變現”。

這一市場與 Sahara 區塊鏈協議深度整合,所有資產交易、調用、分潤記錄都將鏈上可驗證,確保資產歸屬明確、收益可追蹤。藉助該市場,AI 開發者不再依賴傳統 API 平臺或中心化模型託管服務,而是擁有自主、可編程的商業化路徑。

3、生態層

Sahara AI 的生態層串連了資料提供者、AI 開發者、消費者、企業用戶與跨鏈合作伙伴。無論是想貢獻資料、開發應用、使用產品,還是推動企業內部 AI 化,都能發揮作用並找到收益模式。資料標註者、模型開發團隊與算力供應者可以將其資源註冊爲鏈上資產,透過 Sahara AI 的協議機制進行授權與分潤,讓每一次被使用的資源都能自動獲得回報。開發者則能通過一站式的平臺串接資料、訓練模型、部署 Agent,在 AI Marketplace 中直接商業化他們的成果。

一般用戶無需技術背景,也可參與資料任務、使用 AI App、收藏或投資鏈上資產,成爲 AI 經濟的一部分。對企業來說,Sahara 提供從資料衆包、模型開發到私有部署與收益變現的全流程支持。除此之外,Sahara 支援跨鏈部署,任何公鏈生態都可使用 Sahara AI 提供的協議與工具來建構 AI 應用、接入去中心化 AI 資產,實現與多鏈世界的兼容與擴展。這使得 Sahara AI 不只是單一平臺,更是一個鏈上 AI 生態的底層協作標準。

生態進展

自項目啓動以來,Sahara AI 不僅僅提供一套 AI 工具或算力平臺,還在在鏈上重構 AI 的生產與分配秩序,打造一個人人都能參與、確權、貢獻與共享的去中心化協作網絡。正因如此,Sahara 選擇以區塊鏈作爲底層架構,爲 AI 構建可驗證、可追蹤、可分配的經濟體系。

圍繞這一核心目標,Sahara 生態已取得顯著進展。在尚處於私測階段的情況下,平臺已累計生成超 320 萬個鏈上賬戶,日活躍賬戶穩定在 140 萬以上,顯示出用戶參與度與網絡活力。其中,超過 20 萬名用戶通過 Sahara 數據服務平臺參與了數據標註、訓練與驗證任務,並獲得鏈上激勵獎勵。同時,仍有數百萬用戶在等待加入白名單,印證了市場對去中心化 AI 平臺的強烈需求與共識。

在企業合作方面,Sahara 已與微軟、亞馬遜、麻省理工學院(MIT)等全球領先機構建立合作,爲其提供定製化的數據採集與標註服務。企業可通過平臺提交具體任務,由 Sahara 全球數據標註者組成的網絡高效執行,實現規模化衆包,執行效率、靈活性、多樣化需求支持方面的優勢。

Sahara AI 生態圖

參與方式

SIWA 將分四個階段推出。目前第一階段爲鏈上數據所有權打基礎,貢獻者可以將自己的數據集註冊並代幣化。目前對外公開開放,不需要白名單。需要確保上傳的是對 AI 有用的數據,抄襲或者不當內容可能會受到處理。第二階段實現數據集與模型的鏈上變現。第三階段開放測試網,並開源協議。第四階段推出 AI 數據流註冊、溯源追蹤與貢獻證明機制。

SIWA 測試網

除了 SIWA 測試網,現階段普通用戶可以參與 Sahara Legends,通過遊戲化任務瞭解 Sahara AI 的功能。完成任務後收穫守護者碎片,最後可以合成一個 NFT 來記錄對網絡的貢獻。

或者在數據服務平臺標註數據,貢獻有價值數據,以及擔任審覈員。Sahara 後續計劃和生態夥伴合作發佈任務,讓參與者除了獲得 Sahara 的積分外還可獲得生態夥伴的激勵。第一次雙獎勵任務和 Myshell 一起舉辦,用戶完成任務可獲得 Sahara 的積分和 Myshell 的代幣獎勵。根據路線圖,Sahara 預計於 2025 年 Q3 推出主網,屆時可能也會迎來 TGE。

挑戰和展望

Sahara AI 讓 AI 不再侷限於開發人員或者大的 AI 公司,讓 AI 更加開放包容和民主化。對於普通用戶,無須編程知識即參與貢獻並獲取收益,Sahara AI 打造的是一個人人都能參與的去中心化 AI 世界。對於技術開發人員,Sahara AI 打通 Web2 和 Web3 開發路徑,提供了去中心化但靈活強大的開發工具和高質量的數據集。

對於 AI 基礎設施提供者,Sahara AI 提供了模型、數據、算力與服務的去中心化變現新路徑。Sahara AI 不僅僅只做公鏈基礎設施,還下場做核心應用,利用區塊鏈技術促進 AI 版權系統的發展。現階段 Sahara AI 已經和多個頂級 AI 機構達成合作,取得初步成功。後續是否成功,還應觀察主網上線後的性能表現,生態產品發展和採用率以及經濟模型能否在 TGE 後驅動用戶繼續爲數據集做貢獻。

Ritual:創新設計突破異構任務等 AI 核心難題

項目概述

Ritual 旨在解決當前 AI 行業中存在的中心化、封閉性和信任問題,爲 AI 提供透明的驗證機制、公平的計算資源分配以及靈活的模型適配能力;允許任何協議、應用或智能合約以幾行代碼的形式集成可驗證的 AI 模型;並通過其開放的架構和模塊化的設計,推動 AI 在鏈上的廣泛應用,打造一個開放、安全且可持續的 AI 生態系統。

Ritual 於 2023 年 11 月完成 2500 萬美元 A 輪融資,由 Archetype 領投,Accomplice 等多家機構及知名天使投資人蔘與,展示了市場認可和團隊的強大社交能力。創始人 Niraj Pant 和 Akilesh Potti 均爲前 Polychain Capital 合夥人,曾主導投資 Offchain Labs、EigenLayer 等行業巨頭,展現出深刻洞見與判斷力。團隊在密碼學、分佈式系統、AI 等領域經驗豐富,顧問陣容包括 NEAR 和 EigenLayer 等項目創始人,彰顯了其強大的背景與潛力。

設計架構

從 Infernet 到 Ritual Chain

Ritual Chain 是從 Infernet 節點網絡自然過渡而來的第二代產品,代表了 Ritual 在去中心化 AI 計算網絡上的全面升級。Infernet 是 Ritual 推出的第一階段產品,於 2023 年正式上線。這是一個爲異構計算任務設計的去中心化預言機網絡,旨在解決中心化 API 的侷限性,讓開發者能夠更加自由、穩定地調用透明且開放的去中心化 AI 服務。

Infernet 採用了靈活簡單的輕量化框架,由於其易用性和高效性,在推出後迅速吸引了 8,000 多個獨立節點加入。這些節點具備多樣化的硬件能力,包括 GPU 和 FPGA,能夠爲 AI 推理和零知識證明生成等複雜任務提供強大的計算能力。然而,爲了保持系統的簡潔性,Infernet 放棄了一些關鍵功能,例如通過共識協調節點或集成穩健的任務路由機制。這些限制使 Infernet 難以滿足更廣泛的 Web2 和 Web3 開發者的需求,從而促使 Ritual 推出了更加全面和強大的 Ritual Chain。

Ritual Chain 是專爲 AI 應用設計的下一代 Layer 1 區塊鏈,旨在彌補 Infernet 的侷限性,併爲開發者提供更加穩健和高效的開發環境。通過 Resonance 技術,Ritual Chain 爲 Infernet 網絡提供了簡潔且可靠的定價和任務路由機制,大幅優化了資源分配效率。此外,Ritual Chain 基於 EVM++ 框架,這是對以太坊虛擬機(EVM)的向後兼容擴展,具備更強大的功能,包括預編譯模塊、原生調度(scheduling)、內置賬戶抽象(Account Abstraction, AA)以及一系列先進的以太坊改進提案(EIPs)。這些特性共同構建了一個功能強大、靈活且高效的開發環境,爲開發者提供了全新的可能性。

Ritual Chain 工作流程圖

預編譯 Sidecars

與傳統預編譯相比,Ritual Chain 的設計提升了系統的擴展性和靈活性,允許開發者以容器化方式創建自定義功能模塊,而無需修改底層協議。這種架構不僅顯著降低了開發成本,還爲去中心化應用提供了更強大的計算能力。

具體來說 Ritual Chain 通過模塊化架構將複雜計算從執行客戶端中解耦,並以獨立的 Sidecars 形式實現。這些預編譯模塊能夠高效處理複雜的計算任務,包括 AI 推理、零知識證明生成和可信執行環境(TEE)操作等。

原生調度(Native Scheduling)

原生調度解決了任務定時觸發和條件執行的需求。傳統區塊鏈通常依賴中心化的第三方服務(如 keeper)來觸發任務執行,但這種模式存在中心化風險和高額成本。Ritual Chain 通過內置調度器徹底擺脫了對中心化服務的依賴,開發者可以直接在鏈上設置智能合約的入口點和回調頻率(callback frequency)。區塊生產者會維護掛起調用的映射表,在生成新區塊時優先處理這些任務。結合 Resonance 的資源動態分配機制,Ritual Chain 能夠高效且可靠地處理計算密集型任務,爲去中心化 AI 應用提供了穩定的保障。

技術創新

Ritual 的核心技術創新確保了其在性能、驗證和擴展性上的領先地位,爲鏈上 AI 應用提供了強大的支持。

1. Resonance:優化資源分配

Resonance 是一個優化區塊鏈資源分配的雙邊市場機制,解決異構交易的複雜性。隨着區塊鏈交易從簡單轉賬演變爲智能合約、AI 推理等多樣化形式,現有的費用機制(如 EIP-1559)難以高效匹配用戶需求與節點資源。Resonance 通過引入 Broker 和 Auctioneer 兩個核心角色,實現了用戶交易與節點能力之間的最佳匹配:

Broker 負責分析用戶交易的費用意願和節點的資源成本函數,以實現交易與節點之間的最佳匹配,提升計算資源的利用率。Auctioneer 通過雙邊拍賣機制組織交易費用分配,確保公平性和透明性。節點根據自身硬件能力選擇交易類型,而用戶則可根據優先條件(如速度或成本)提交交易需求。

這一機制顯著提高了網絡的資源利用效率和用戶體驗,同時通過去中心化的拍賣流程進一步增強了系統的透明性和開放性。

Resonance 機制下:Auctioneer 根據 Broker 的分析,將合適的任務分配給節點

2. Symphony:提升驗證效率

Symphony 則專注於提升驗證效率,解決傳統區塊鏈“重複執行”模式在處理和驗證複雜計算任務時的低效問題。Symphony 基於“執行一次,多次驗證”(EOVMT)的模型,通過將計算與驗證流程分離,大幅減少重複計算帶來的性能損耗。計算任務由指定節點執行一次,計算結果通過網絡廣播,驗證節點利用非交互證明(succinct proofs)確認結果的正確性,而無需重複執行計算。

Symphony 支持分佈式驗證,將複雜任務分解爲多個子任務,由不同的驗證節點並行處理,從而進一步提升驗證效率,並確保隱私保護和安全性。Symphony 對可信執行環境(TEE)和零知識證明(ZKP)等證明系統高度兼容,爲快速確認交易和隱私敏感的計算任務提供靈活支持。這一架構不僅顯著降低了重複計算帶來的性能開銷,還確保了驗證過程的去中心化和安全性。

Symphony 將複雜任務分解爲多個子任務,由不同的驗證節點並行處理

3. vTune:可追蹤的模型驗證

vTune 是 Ritual 提供的一種用於模型驗證和來源追蹤的工具,對模型性能幾乎沒有影響,同時具備良好的抗干擾能力,特別適用於保護開源模型的知識產權並促進公平分發。vTune 結合了水印技術和零知識證明,通過嵌入隱蔽的標記實現模型來源追蹤和計算完整性保障:

· 水印技術:通過權重空間水印、數據水印或函數空間水印嵌入標記,即使模型公開,其歸屬仍可以被驗證。特別是函數空間水印能夠在無需訪問模型權重的情況下,通過模型輸出驗證歸屬,從而實現更強的隱私保護和魯棒性。

· 零知識證明:在模型微調過程中引入隱蔽數據,用於驗證模型是否被篡改,同時保護模型創建者的權益。

這一工具不僅爲去中心化 AI 模型市場提供了可信的來源驗證,還顯著提升了模型的安全性和生態透明性。

生態發展

Ritual 目前處於私有測試網階段,對於普通用戶來說參與機會較少;開發者可以申請並參與官方推出的 Altar 和 Realm 激勵計劃,加入 Ritual 的 AI 生態建設,獲得來自官方的全棧技術支持以及資金支持。

目前官方公佈了一批來自 Altar 計劃的原生應用:

· Relic:基於機器學習的自動做市商(AMM),通過 Ritual 的基礎設施動態調整流動性池參數,實現費用和底層池的優化;

· Anima:專注於基於 LLM 的鏈上交易自動化工具,爲用戶提供流暢自然的 Web3 交互體驗;

· Tithe: AI 驅動的借貸協議,通過動態優化借貸池和信用評分,支持更廣泛的資產類型。

此外,Ritual 還與多個成熟項目展開了深度合作,推動去中心化 AI 生態的發展。例如,與 Arweave 的合作爲模型、數據和零知識證明提供了去中心化的永久存儲支持;通過與 StarkWare 和 Arbitrum 的集成,Ritual 爲這些生態系統引入了原生的鏈上 AI 能力;此外,EigenLayer 提供的再質押機制爲 Ritual 的證明市場增加了主動驗證服務,進一步增強了網絡的去中心化和安全性。

挑戰和展望

Ritual 的設計從分配、激勵、驗證等關鍵環節入手,解決了去中心化 AI 面臨的核心問題,同時通過 vTune 等工具實現了模型的可驗證性,突破了模型開源與激勵的矛盾,爲去中心化模型市場的構建提供了技術支撐。

當下 Ritual 處於早期階段,主要針對模型的推理階段,產品矩陣正在從基礎設施擴展至模型市場、L2 即服務(L2aaS)以及 Agent 框架等領域。由於當下區塊鏈仍處於私有測試階段,Ritual 提出的先進的技術設計方案仍有待大規模公開落地,需要持續關注。期待隨着技術的不斷完善和生態的逐步豐富,Ritual 能夠成爲去中心化 AI 基礎設施的重要組成部分。

Gensyn:解決去中心化模型訓練的核心問題

項目概述

在人工智能加速演進、算力資源愈發稀缺的時代背景下,Gensyn 正試圖重塑整個 AI 模型訓練的底層範式。

傳統 AI 模型訓練流程,算力幾乎被壟斷在少數幾家雲計算巨頭手中,訓練成本高昂、透明度低,阻礙了中小團隊與獨立研究者的創新步伐。而 Gensyn 的願景正是打破這一“中心化壟斷”結構,它主張將訓練任務“下沉”至全球範圍內無數個具備基本計算能力的設備上——無論是 MacBook、遊戲級 GPU,還是邊緣設備、閒置服務器,都可接入網絡、參與任務執行、獲取報酬。

Gensyn 成立於 2020 年,專注於構建去中心化 AI 計算基礎設施。早在 2022 年,團隊便首次提出了意圖在技術和制度層面重新定義 AI 模型的訓練方式:不再依賴封閉的雲平臺或巨型服務器集羣,而是將訓練任務下沉至全球範圍內的異構計算節點之中,構建一個無需信任的智能計算網絡。

2023 年,Gensyn 對其願景進行了進一步拓展:構建一個全球連接、開源自治、無許可門檻的 AI 網絡——任何具備基本計算能力的設備,都可成爲這個網絡中的一分子。其底層協議基於區塊鏈架構設計,不僅具備激勵機制與驗證機制的可組合性。

Gensyn 自創立以來,累計獲得 5060 萬美元支持,投資方涵蓋 a16z、CoinFund、Canonical、Protocol Labs、Distributed Global 等共計 17 家機構。其中,2023 年 6 月由 a16z 領投的 A 輪融資被廣泛關注,標誌着去中心化 AI 領域開始進入主流 Web3 風投的視野。

團隊核心成員背景也頗具分量:聯合創始人 Ben Fielding 曾在牛津大學攻讀理論計算機科學,具備深厚的技術研究背景;另一位聯合創始人 Harry Grieve 則長期參與去中心化協議的系統設計與經濟建模,爲 Gensyn 的架構設計與激勵機制提供了堅實支撐。

設計架構

當前去中心化人工智能系統的發展正面臨三大核心技術瓶頸:執行(Execution)、驗證(Verification)與通信(Communication)。這些瓶頸不僅限制了大模型訓練能力的釋放,也制約了全球算力資源的公平整合與高效利用。Gensyn 團隊在系統性研究基礎上,提出了三項具有代表性的創新機制——RL Swarm、Verde 以及 SkipPipe,針對上述問題分別構建瞭解決路徑,推動了去中心化 AI 基礎設施從概念走向落地。

一、執行挑戰:如何讓碎片化設備協同高效訓練大模型?

當前,大語言模型的性能提升主要依賴於“堆規模”策略:更大的參數量、更廣的數據集以及更長的訓練週期。但這也顯著推高了計算成本——超大模型的訓練往往需要被拆分至成千上萬個 GPU 節點,這些節點之間還需進行高頻的數據通信與梯度同步。在去中心化場景下,節點分佈地域廣泛、硬件異構、狀態波動性高,傳統的中心化調度策略難以奏效。

爲應對這一挑戰,Gensyn 提出 RL Swarm,一種點對點的強化學習後訓練系統。其核心思路是將訓練過程轉化爲一個分佈式協作博弈。該機制分爲“共享—批判—決策”三階段:首先,節點獨立完成問題推理並公開共享結果;隨後,各節點對同伴答案進行評價,從邏輯性與策略合理性等角度提出反饋;最後,節點基於羣體意見修正自身輸出,生成更穩健的答案。該機制有效融合個體計算與羣體協同,尤其適用於數學與邏輯推理等需要高精度和可驗證性的任務。實驗顯示,RL Swarm 不僅提升了效率,也顯著降低了參與門檻,具備良好的擴展性和容錯性。

RL Swarm 的“共享—批判—決策”三階段強化學習訓練系統

二、驗證挑戰:如何驗證不可信供應者的計算結果是否正確?

在去中心化訓練網絡中,“任何人都可提供算力”是優勢也是風險。問題在於:如何在無需信任的前提下驗證這些計算是否真實有效?

傳統方式如重計算或白名單審覈存在明顯侷限——前者成本極高,不具可擴展性;後者又排除了“長尾”節點,損害網絡開放性。Gensyn 爲此設計了 Verde,一套專爲神經網絡訓練驗證場景構建的輕量級仲裁協議。

Verde 的關鍵思想是“最小可信裁定”:當驗證者懷疑供應者訓練結果有誤時,仲裁合約只需重算計算圖中首個存在爭議的操作節點,而無需重演整個訓練過程。這大幅度降低了驗證負擔,同時確保了至少一方誠實時的結果正確性。爲解決不同硬件間浮點非確定性問題,Verde 還配套開發了 Reproducible Operators(可復現操作符庫),強制對常見數學操作如矩陣乘法設置統一執行順序,從而實現跨設備的位級一致輸出。這一技術顯著提升了分佈式訓練的安全性與工程可行性,是目前去信任驗證體系中的重要突破。

整個機制建立在訓練者記錄關鍵中間狀態(即檢查點)的基礎上,多個驗證者被隨機指派去復現這些訓練步驟,從而判斷輸出的一致性。一旦有驗證者復算結果與訓練者存在分歧,系統不會粗暴地重跑整個模型,而是通過網絡仲裁機制精確定位二者在計算圖中首次發生分歧的操作,僅對該操作進行重放比對,從而以極低的開銷實現爭議裁決。通過這種方式,Verde 在無需信任訓練節點的前提下,既保證了訓練過程的完整性,又兼顧了效率與可擴展性,是爲分佈式 AI 訓練環境量身定製的驗證框架。

Vader 的工作流程

三、通信挑戰:如何減少節點間高頻同步帶來的網絡瓶頸?

在傳統的分佈式訓練中,模型要麼被完整複製,要麼被按層拆分(流水線並行),二者都要求節點間進行高頻同步。特別是在流水線並行中,一個微批次必須嚴格按順序經過每一層模型,導致只要某個節點延遲,就會阻塞整個訓練流程。

Gensyn 針對這一問題提出 SkipPipe:一種支持跳躍執行與動態路徑調度的高容錯流水線訓練系統。SkipPipe 引入了“跳躍比例(skip ratio)”機制,允許某些微批數據在特定節點負載過高時跳過部分模型層,同時使用調度算法動態選擇當前最優計算路徑。實驗顯示,在地理分佈廣、硬件差異大、帶寬受限的網絡環境下,SkipPipe 訓練時間可降低高達 55%,並在高達 50% 節點故障率時仍能維持僅 7% 的損失,展現出極強的韌性和適應性。

參與方式

​Gensyn 的公共測試網已於 2025 年 3 月 31 日上線,目前仍處於其技術路線圖中的初期階段(Phase 0),其功能重心集中在 RL Swarm 的部署與驗證上。RL Swarm 是 Gensyn 的第一個應用場景,圍繞強化學習模型的協作訓練進行設計。每一個參與節點都將其行爲綁定至鏈上身份,貢獻過程被完整記錄,這爲後續激勵分配和可信計算模型提供了驗證基礎。

Gensyn 的節點排名

早期測試階段的硬件門檻相對友好:Mac 用戶使用 M 系列芯片 即可運行,Windows 用戶則建議配備 3090 或 4090 等高性能 GPU,以及 16GB 以上內存,即可部署本地 Swarm 節點。系統運行後通過網頁登錄郵箱(推薦 Gmail)完成驗證流程,並可選擇是否綁定 HuggingFace 的 Access Token,以激活更完整的模型能力。

挑戰和展望

目前 Gensyn 項目最大的不確定性,在於其測試網尚未涵蓋所承諾的完整技術棧。Verde 與 SkipPipe 等關鍵模塊仍處於待集成狀態,這也使外界對其架構落地能力保持觀望。官方給出的解釋是:測試網將分階段推進,每一階段解鎖新的協議能力,優先驗證基礎設施的穩定性與擴展性。首階段以 RL Swarm 爲起點,未來將逐步拓展至預訓練、推理等核心場景,最終過渡至支持真實經濟交易的主網部署。

儘管測試網啓動之初採用了相對保守的推進節奏,但值得關注的是,僅一個月後,Gensyn 即推出了支持更大規模模型與複雜數學任務的新 Swarm 測試任務。此舉在一定程度上回應了外界對其開發節奏的質疑,也展現出團隊在局部模塊推進上的執行效率。

然而,問題也隨之而來:新版任務對硬件提出了極高門檻,推薦配置包括 A100、H100 等頂級 GPU(80GB 顯存),這對於中小節點而言幾乎不可達,也與 Gensyn 所強調的“開放接入、去中心化訓練”的初衷形成一定張力。算力的集中化趨勢,若未得到有效引導,或將影響網絡的公平性和去中心化治理的可持續性。

接下來,若 Verde 與 SkipPipe 能順利集成,將有助於提升協議的完整性與協同效率。但 Gensyn 能否在性能和去中心化之間找到真正的平衡,仍有待測試網更長時間、更廣範圍的實踐檢驗。眼下,它已初步顯現出潛力,也暴露出挑戰,而這正是一個早期基礎設施項目最真實的狀態。

Bittensor:去中心化 AI 網絡的創新與發展

項目概述

Bittensor 是一個結合區塊鏈與人工智能的開創性項目,由 Jacob Steeves 和 Ala Shaabana 於 2019 年創立,旨在構建“機器智能的市場經濟”。兩位創始人均具備人工智能和分佈式系統的深厚背景。項目白皮書的署名作者 Yuma Rao 被認爲是團隊核心技術顧問,爲項目注入了密碼學與共識算法方面的專業視角。

該項目旨在通過區塊鏈協議整合全球算力資源,構建一個不斷自我優化的分佈式神經網絡生態系統。這一願景將計算、數據、存儲和模型等數字資產轉化爲智能價值流,構建全新經濟形態,確保 AI 發展紅利的公平分配。有別於 OpenAI 等中心化平臺,Bittensor 建立了三大核心價值支柱:

· 打破數據孤島:利用 TAO 代幣激勵體系促進知識共享與模型貢獻

· 市場驅動的質量評價:引入博弈論機制篩選優質 AI 模型,實現優勝劣汰

· 網絡效應放大器:參與者增長與網絡價值呈指數級正相關,形成良性循環

在投資佈局方面,Polychain Capital 自 2019 年起孵化 Bittensor,目前持有價值約 2 億美元的 TAO 代幣;Dao5 持有約價值 5000 萬美元的 TAO,也是 Bittensor 生態系統的早期支持者。2024 年,Pantera Capital 和 Collab Currency 通過戰略投資進一步加碼。同年 8 月,灰度集團將 TAO 納入其去中心化 AI 基金,標誌着機構投資者對項目價值的高度認可和長期看好。

設計架構與運行機制

網絡架構

Bittensor 構建了一個由四個協同層級組成的精密網絡架構:

· 區塊鏈層:基於 Substrate 框架搭建,作爲網絡的信任基礎,負責記錄狀態變化與代幣發行。系統每 12 秒生成新區塊並按規則發行 TAO 代幣,確保網絡共識與激勵分配。

· 神經元層(Neuron):作爲網絡的計算節點,神經元運行各類 AI 模型提供智能服務。每個節點通過精心設計的配置文件明確聲明其服務類型與接口規範,實現功能模塊化和即插即用。

· 突觸層(Synapse):網絡的通信橋樑,動態優化節點間連接權重,形成類神經網絡結構,保障信息高效傳遞。突觸還內置經濟模型,神經元間的互動與服務調用需支付 TAO 代幣,形成價值流轉閉環。

· 元圖層(Metagraph):作爲系統的全局知識圖譜,持續監測與評估各節點的貢獻價值,爲整個網絡提供智能導向。元圖通過精確計算確定突觸權重,進而影響資源分配、獎勵機制以及節點在網絡中的影響力。

Bittensor 的網絡框架

Yuma 共識機制

網絡採用獨特的 Yuma 共識算法,每 72 分鐘完成一輪獎勵分配。驗證過程結合主觀評價與客觀度量:

· 人工評分:驗證者對礦工輸出質量進行主觀評價

· Fisher 信息矩陣:客觀量化節點對網絡整體貢獻

這種“主觀 + 客觀”的混合機制,有效平衡了專業判斷與算法公正。

子網(Subnet)架構和 dTAO 升級

每個子網專注於特定 AI 服務領域,如文本生成、圖像識別等,獨立運行但與主區塊鏈 subtensor 保持連接,形成高度靈活的模塊化擴展架構。2025 年 2 月,Bittensor 完成了具有里程碑意義的 dTAO(Dynamic TAO)升級,這一系統將每個子網轉變爲獨立經濟單元,通過市場需求信號智能調控資源分配。其核心創新是子網代幣(Alpha 代幣)機制:

· 運作原理:參與者通過質押 TAO 獲取各子網發行的 Alpha 代幣,這些代幣代表了對特定子網服務的市場認可與支持力度資源

· 分配邏輯:Alpha 代幣的市場價格作爲衡量子網需求強度的關鍵指標,初始狀態下各子網 Alpha 代幣價格一致,每個流動性池內僅有 1 個 TAO 和 1 個 Alpha 代幣。隨着交易活躍度提升和流動性注入,Alpha 代幣價格動態調整,TAO 的分配按子網代幣價格佔比智能分配,市場熱度高的子網獲得更多資源傾斜,實現真正的需求驅動型資源優化配置

Bittensor 子網代幣排放分配

dTAO 升級顯著提升了生態活力與資源利用效率,子網代幣市場總市值已達 5 億美元,展現出強勁的增長動能。

Bittensor 子網 alpha 代幣價值

生態進展與應用案例

主網發展歷程

Bittensor 網絡經歷了三個關鍵發展階段:

· 2021 年 1 月:主網正式啓動,奠定基礎架構

· 2023 年 10 月:“Revolution”升級引入子網架構,實現功能模塊化

· 2025 年 2 月:完成 dTAO 升級,建立市場驅動的資源分配機制

子網生態呈爆發式增長:截至 2025 年 6 月,已有 119 個專業子網,預計年內可能突破 200 個。

Bittensor 子網數量

生態項目類型多元化,覆蓋 AI 代理(如 Tatsu)、預測市場(如 Bettensor)、DeFi 協議(如 TaoFi)等多個前沿領域,構成了 AI 與金融深度融合的創新生態。

代表性子網生態項目

· TAOCAT:TAOCAT 是 Bittensor 生態中的原生 AI 代理,直接構建在子網上,爲用戶提供數據驅動的決策工具。利用 Subnet 19 的大語言模型、Subnet 42 的實時數據以及 Subnet 59 的 Agent Arena,提供市場洞察和決策支持。獲得 DWF Labs 投資,納入其 2000 萬美元 AI 代理基金,並在 binance alpha 上線。

· OpenKaito:由 Kaito 團隊在 Bittensor 上推出的子網,旨在構建去中心化的加密行業搜索引擎。目前已索引 5 億網頁資源,展示了去中心化 AI 處理海量數據的強大能力。與傳統搜索引擎相比,其核心優勢在於減少商業利益干擾,提供更透明、中立的數據處理服務,爲 Web3 時代信息獲取提供新範式。

· Tensorplex Dojo:由 Tensorplex Labs 開發的 52 號子網,專注於通過去中心化平臺衆包高質量人類生成數據集,鼓勵用戶通過數據標註賺取 TAO 代幣。2025 年 3 月,YZi Labs(原 Binance Labs)宣佈投資 Tensorplex Labs,支持 Dojo 和 Backprop Finance 的發展。

· CreatorBid:運行在 Subnet 6,是一個結合 AI 和區塊鏈的創作平臺,與 Olas 和其他 GPU 網絡(如 io.net)集成,支持內容創作者和 AI 模型開發。

技術與行業合作

Bittensor 在跨領域合作方面取得了突破性進展:

· 與 Hugging Face 建立深度模型集成通道,實現 50 個主流 AI 模型的鏈上無縫部署

· 2024 年攜手高性能 AI 芯片製造商 Cerebras 聯合發佈 BTLM-3B 模型,累計下載量突破 16 萬次

· 2025 年 3 月與 DeFi 巨頭 Aave 達成戰略合作,共同探索 rsTAO 作爲優質借貸抵押品的應用場景

參與方式

Bittensor 設計了多元化的生態參與路徑,形成完整的價值創造與分配體系:

· 挖礦:部署礦工節點生產高質量數字商品(如 AI 模型服務),根據貢獻質量獲取 TAO 獎勵

· 驗證:運行驗證者節點評估礦工工作成果,維護網絡質量標準,獲取相應 TAO 激勵

· 質押:持有並質押 TAO 支持優質驗證者節點,根據驗證者表現獲取被動收益

· 開發:利用 Bittensor SDK 和 CLI 工具構建創新應用、實用工具或全新子網,積極參與生態建設

· 使用服務:通過友好的客戶端應用界面使用網絡提供的 AI 服務,如文本生成或圖像識別

· 交易:參與子網資產化代幣的市場交易,捕捉潛在價值增長機會

子網 alpha 代幣給參與者的分配

挑戰和展望

Bittensor 儘管展現出卓越潛力,但作爲前沿技術探索,仍面臨多維度挑戰。在技術層面,分佈式 AI 網絡面臨的安全威脅(如模型竊取與對抗攻擊)比中心化系統更爲複雜,需持續優化隱私計算與安全防護方案;經濟模型方面,早期存在通脹壓力,子網代幣市場波動性較高,需警惕可能的投機泡沫;監管環境上,雖然 SEC 已將 TAO 歸類爲效用型代幣,但全球各地區監管框架差異仍可能限制生態擴張;同時,面對資源雄厚的中心化 AI 平臺激烈競爭,去中心化解決方案需在用戶體驗和成本效益方面證明其長期競爭優勢。

隨着 2025 年減半週期臨近,Bittensor 發展將聚焦四大戰略方向:進一步深化子網專業化分工,提升垂直領域應用的服務質量與性能;加速與 DeFi 生態的深度整合,藉助新引入的 EVM 兼容性拓展智能合約應用邊界;通過 dTAO 機制在未來 100 天內平穩將網絡治理權重從 TAO 逐步轉向 Alpha 代幣,推動治理去中心化進程;同時積極拓展與其他主流公鏈的互操作性,擴大生態邊界與應用場景。這些協同發展的戰略舉措將共同推動 Bittensor 向“機器智能市場經濟”的宏偉願景穩步邁進。

0G:以存儲爲基礎的模塊化 AI 生態系統

項目概述

0G 是一個專爲 AI 應用設計的模塊化 Layer 1 公鏈,旨在爲數據密集型和高計算需求場景提供高效、可靠的去中心化基礎設施。通過模塊化架構,0G 實現了共識、存儲、計算和數據可用性等核心功能的獨立優化,支持動態擴展,能夠高效處理大規模 AI 推理和訓練任務。

創始團隊由 Michael Heinrich(CEO,曾創立融資超 1 億美元的 Garten)、Ming Wu(CTO,微軟研究員,Conflux 聯合創始人)、Fan Long(Conflux 聯合創始人)和 Thomas Yao(CBO,Web3 投資者)組成,擁有 8 名計算機科學博士,成員背景涵蓋微軟、蘋果等,具備深厚的區塊鏈和 AI 技術經驗。

融資方面,0G Labs 完成 3500 萬美元 Pre-seed 輪和 4000 萬美元 Seed 輪,總計 7500 萬美元,投資方包括 Hack VC、Delphi Ventures 和 Animoca Brands 等。此外,0G Foundation 獲得 2.5 億美元代幣購買承諾、3060 萬美元公開節點銷售和 8888 萬美元生態基金。

設計架構

1、0G Chain

0G Chain 的目標是打造最快的模塊化 AI 公鏈,其模塊化架構支持對共識、執行和存儲等關鍵組件進行獨立優化,並集成了數據可用性網絡、分佈式存儲網絡和 AI 計算網絡。這種設計爲系統在應對複雜的 AI 應用場景時提供了卓越的性能和靈活性。以下是 0G Chain 的三大核心特色:

模塊化可擴展性(Modular Scalability for AI)

0G 採用橫向可擴展的架構,能夠高效處理大規模的數據工作流。其模塊化設計將數據可用性層(DA 層)與數據存儲層分離,爲 AI 任務(如大規模訓練或推理)的數據訪問和存儲提供了更高的性能和效率。

0G 共識(0G Consensus)

0G 的共識機制由多個獨立的共識網絡組成,這些網絡可以根據需求動態擴展。隨着數據量的指數級增長,系統吞吐量也能同步提升,支持從 1 個到數百甚至上千個網絡的擴展。這種分佈式架構不僅提升性能,還能確保系統的靈活性和可靠性。

共享質押(Shared Staking)

驗證者需在以太坊主網上質押資金,爲所有參與的 0G 共識網絡提供安全保障。如果任意 0G 網絡發生可罰事件,驗證者在以太坊主網上的質押資金將被削減。這一機制將以太坊主網的安全性擴展至所有 0G 共識網絡,確保整個系統的安全性和穩健性。

0G Chain 具備 EVM 兼容性,確保以太坊、Layer 2 Rollup 或其他鏈的開發者可以輕鬆集成 0G 的服務(如數據可用性和存儲),無需遷移。同時 0G 還在探索支持 Solana VM、Near VM 和比特幣兼容性,以便 AI 應用擴展至更廣泛的用戶羣體。

2、0G 存儲(0G Storage)

0G Storage 是一個高度優化的分佈式存儲系統,專爲去中心化應用和數據密集型場景設計。其核心通過一種獨特的共識機制——隨機訪問證明(Proof of Random Access, PoRA),激勵礦工存儲和管理數據,從而實現安全性、性能和公平性的平衡。

其架構可以分爲三層:

· 日誌層(Log Layer):實現非結構化數據的永久存儲,適用於歸檔或數據日誌等用途。

· 鍵值存儲層(Key-Value Layer):管理可變的結構化數據,並支持權限控制,適合動態應用場景。

· 事務處理層(Transaction Layer):支持多用戶的併發寫入,提升協作和數據處理效率。

隨機訪問證明(Proof of Random Access, PoRA)是 0G Storage 的關鍵機制,用於驗證礦工是否正確存儲了指定的數據塊。礦工會週期性地接受挑戰,需提供有效的加密哈希作爲證明,類似於工作量證明。爲確保公平競爭,0G 對每次挖礦操作的數據範圍限制爲 8 TB,避免大規模運營商壟斷資源,小規模礦工也能在公平環境中參與競爭。

隨機訪問證明示意圖

通過糾刪編碼技術,0G Storage 將數據分割成多個冗餘的小片段,並分佈到不同的存儲節點上。這種設計確保即使部分節點下線或發生故障,數據仍然可以被完整恢復,不僅顯著提升了數據的可用性和安全性,還使系統在處理大規模數據時表現出色。此外,數據存儲通過扇區級和數據塊級的精細化管理,不僅優化了數據訪問效率,還增強了礦工在存儲網絡中的競爭力。

提交的數據以順序方式組織,這種順序被稱爲數據流(data flow),可以被理解爲日誌條目列表或固定大小數據扇區的序列。在 0G 中,每一塊數據都可以通過一個通用的 偏移量(offset)快速定位,從而實現高效的數據檢索和挑戰查詢。默認情況下,0G 提供一個稱爲 主數據流(main flow)的通用數據流,用於處理大部分應用場景。同時,系統還支持 專用數據流(specialized flows),這些數據流專門接受特定類別的日誌條目,並提供獨立的連續地址空間,針對不同的應用需求進行優化。

通過以上設計,0G Storage 能夠靈活適配多樣化的使用場景,同時保持高效的性能和管理能力,爲需要處理大規模數據流的 AI x Web3 應用提供強大的存儲支持。

3、0G 數據可用性(0G DA)

數據可用性(Data Availability, DA)是 0G 的核心組件之一,旨在提供可訪問、可驗證且可檢索的數據。這一功能是去中心化 AI 基礎設施的關鍵,例如驗證訓練或推理任務的結果,以滿足用戶需求並確保系統激勵機制的可靠性。0G DA 通過精心設計的架構和驗證機制,實現了出色的可擴展性和安全性。

0G DA 的設計目標是在保證安全性的同時提供極高的擴展性能。其工作流程主要分爲兩個部分:

· 數據存儲通道(Data Storage Lane):數據通過糾刪編碼技術被分割成多個小片段(“數據塊”),並分佈到 0G Storage 網絡中的存儲節點上。這種機制有效支持了大規模的數據傳輸,同時確保數據的冗餘性與可恢復性。

· 數據發佈通道(Data Publishing Lane):數據的可用性由 DA 節點通過聚合簽名進行驗證,並將結果提交到共識網絡。通過這種設計,數據發佈僅需要處理少量關鍵數據流,避免了傳統廣播方式中的瓶頸問題,從而顯著提升了效率。

爲了確保數據的安全性和高效性,0G DA 使用了一種基於隨機性的驗證方法,結合聚合簽名機制,形成了完整的驗證流程:

· 隨機構建法定小組:通過可驗證隨機函數(Verifiable Random Function, VRF),共識系統從驗證者集合中隨機選出一組 DA 節點構成法定小組(quorum)。這種隨機選擇方法理論上保證了法定小組的誠實性分佈與整個驗證者集合一致,因此數據可用性客戶端無法與法定小組串通。

· 聚合簽名驗證:法定小組對存儲的數據塊進行抽樣驗證,並生成聚合簽名,將可用性證明提交到 0G 的共識網絡。這種聚合簽名方式極大提升了驗證效率,其性能比傳統以太坊快幾個數量級。

0G 的驗證流程

通過以上機制,0G DA 提供了一種高效、擴展性強且安全性有保障的數據可用性解決方案,爲去中心化 AI 應用提供了堅實的基礎支持。

4、0G 算力(0G Compute)

0G 計算網絡是一個去中心化框架,旨在爲社區提供強大的 AI 計算能力。通過智能合約,算力提供商可以註冊他們提供的 AI 服務類型(例如模型推理),併爲服務設定價格。用戶發送 AI 推理請求後,服務提供商會根據用戶餘額的充足性決定是否響應,從而實現高效的算力分配。

爲了進一步優化交易成本和網絡效率,服務提供商能夠批量處理多個用戶請求。這種方式有效減少了鏈上結算的次數,降低了頻繁交易帶來的資源消耗。同時,0G 計算網絡採用了零知識證明(ZK-Proofs)技術,通過鏈下計算和鏈上驗證,大幅壓縮交易數據,降低鏈上結算成本。結合 0G 的存儲模塊,其可擴展的鏈下數據管理機制能夠顯著減少存儲請求追蹤數據鍵的鏈上成本,同時提升存儲和檢索的效率。

目前,0G 的去中心化 AI 網絡主要提供 AI 推理服務,並已在效率與成本優化方面展現出優勢。未來,0G 計劃進一步擴展其能力,實現從推理到訓練等更多 AI 任務的全面去中心化,爲用戶提供更加完善的解決方案。

生態發展

0G 的測試網目前已從 Newton v2 升級到 Galileo v3,根據官網數據,具有 8000 多個驗證者。存儲網絡上有 1591 個活躍礦工,目前已處理了 43 萬多個上傳文件,提供了總計 450.72G 的存儲空間。

0G 項目在去中心化 AI 領域的影響力也隨着合作企業的增加和深入不斷擴大,根據官方數據,目前已完成 450 多次集成,涵蓋 AI 算力、數據、模型、框架、infra、DePin 等全面領域。

0G 生態圖

同時,0G 基金會還推出了價值 8888 萬美元生態基金,用於支持 AI 相關項目的開發,已湧現出以下一批原生應用:

· zer0:AI 驅動的 DeFi 流動性解決方案,提供鏈上流動性優化服務

· H1uman:去中心化的 AI Agent 工廠,創建可擴展的 AI 集成工作流

· Leea Labs:多 AI Agent 的基礎設施,支持安全的多 Agent 系統部署

· Newmoney.AI:智能 DeFi 的代理錢包,自動化管理投資和交易

· Unagi:AI 驅動的鏈上娛樂平臺,融合動漫和遊戲的 Web3 體驗

· Rivalz:可驗證的 AI 預言機,爲智能合約提供可信的 AI 數據訪問

· Avinasi Labs:專注於長壽研究的 AI 項目

參與方式

普通用戶目前可以通過以下方式參與 0G 生態:

· 參與 0G 測試網交互:0G 已推出 Testnet V3(Galileo v3),用戶可通過訪問官方測試網頁面(0G Testnet Guide)領取測試代幣,並在 0G 鏈上的 DApps 上進行交互體驗。

· 參與 Kaito 活動:0G 現已加入 Kaito 平臺的內容創作活動,用戶可通過創作並分享與 0G 相關的優質內容(如技術分析、生態進展或 AI 應用案例)參與互動,贏取獎勵。

挑戰和展望

0G 在存儲領域展現了深厚的技術實力,爲去中心化存儲提供了一套完整的模塊化解決方案,具備出色的可拓展性和經濟性(存儲成本低至 10-11 美元 /TB)。同時,0G 通過數據可用性層(DA)解決了數據的可驗證性問題,爲未來的大規模 AI 推理和訓練任務奠定了堅實基礎。這一設計爲去中心化 AI 在數據存儲層提供了強有力的支撐,併爲開發者創造了優化的存儲和檢索體驗。

在性能層面,0G 預計主網 TPS 將提升至 3,000 到 10,000 的範圍,性能較此前實現了 10 倍增長,確保網絡能夠滿足 AI 推理和高頻交易等任務伴隨的高強度的計算需求。然而,在算力市場和模型方面,0G 仍需要長足的建設。目前,0G 的算力業務還侷限於 AI 推理服務,在模型訓練任務的支持上,還需要更多的定製化設計和技術創新。作爲 AI 發展的核心組成,模型和算力不僅是推動產品升級和大規模應用的關鍵,也是 0G 實現其成爲最大 AI Layer 1 生態系統目標的必經之路。

總結

當前現狀:多元切入,面臨挑戰

回顧以上的六個 AI Layer1 項目,它們各自選擇了不同的切入點,圍繞 AI 資產、算力、模型、存儲等核心要素,探索去中心化 AI 基礎設施與生態構建的路徑:

· Sentient:聚焦去中心化模型的研發,推出 Dobby 系列,強調模型的可信、對齊與忠誠,底層鏈開發方面仍在持續推進階段,將實現模型與鏈的深度融合。

· Sahara AI:以 AI 資產所有權保護爲核心,首階段着力於數據的確權與流通,致力於爲 AI 生態提供可信的數據基礎。

· Ritual:圍繞去中心化算力在推理方面的高效落地方案,強化區塊鏈本身的功能,提升系統的靈活性和可擴展性,助力 AI 原生應用發展。

· Gensyn:致力於解決去中心化模型訓練難題,通過技術創新降低大規模分佈式訓練的成本,爲 AI 算力共享與民主化提供可行路徑。

· Bittensor:較爲成熟的子網平臺,通過代幣激勵和去中心化治理,率先構建起豐富的開發者和應用生態,是去中心化 AI 的早期典範。

· 0G:以去中心化存儲爲切入點,聚焦 AI 生態中數據存儲與管理難題,逐步拓展到更全面的 AI 基礎設施和應用服務。

項目對比和總結

總體來看,這些項目既有技術路線的差異,也有生態戰略的互補,共同推動着鏈上去中心化 AI 生態的多元化發展。但不可否認的是,整個賽道仍處於早期探索階段。雖然許多前瞻性的願景和藍圖被提出,但實際開發進度和生態體系建設仍需要時間沉澱,許多關鍵基礎設施和創新型應用也有待落地。

如何吸引和激勵更多的算力、存儲等基礎節點加入網絡,是當下亟需突破的核心問題。正如比特幣網絡經歷了長達十幾年的發展,才逐步獲得主流市場的認可,去中心化 AI 網絡也需要持續擴展節點規模,才能滿足海量 AI 任務對算力的巨大需求。也只有當網絡中的算力、存儲等資源達到一定的豐富度,纔能有效降低使用成本,並推動算力的普惠化,最終實現去中心化 AI 的宏偉願景。

此外,鏈上 AI 應用在創新性方面依然存在不足。目前不少產品仍以 Web2 模式爲藍本進行簡單遷移,缺乏與區塊鏈原生機制深度融合的創新設計,未能充分展現去中心化 AI 的獨特優勢。這些現實挑戰提醒我們,行業的持續發展不僅需要技術層面的突破,更離不開用戶體驗的提升和整個生態系統的不斷完善。

持續發展:AI Layer1 和 DeAI 優質項目不斷湧現

除了以上我們深入介紹的項目外,在時代的大趨勢下,還有不少新的 AI Layer1 和 DeAI 值得我們關注。(由於篇幅限制,這裏先進行精要介紹,可以關注我們持續跟蹤更多 AI 賽道的投研內容)

Kite AI

Kite AI 基於其核心共識機制“Proof of Attributed Intelligence”(PoAI),構建了一條 EVM 兼容的 Layer 1 區塊鏈,致力於打造一個公平的 AI 生態系統,旨在確保數據提供者、模型開發者以及 AI Agent 創作者在 AI 價值創造中的貢獻能夠被透明記錄並獲得公正回報,從而打破由少數科技巨頭壟斷的 AI 資源格局。目前 Kite AI 將發展重點聚焦在 C 端應用層,並通過子網架構和交易市場等形式,保障 AI 資產的開發、確權和變現。

Story

圍繞開放知識產權(IP)打造的 AI Layer 1,爲創作者和開發者提供一套全流程工具,幫助他們在鏈上註冊、追蹤、授權、管理和變現各種內容 IP,無論是視頻、音頻、文本還是 AI 作品。Story 允許用戶將原創內容鑄造成 NFT,並內置靈活授權和分潤機制,讓用戶可以進行二次創作和商業合作,同時確保所有權和收益分配透明可查。

Vana

Vana 是專爲“用戶數據變現與 AI 訓練”構建的新一代數據底層 AI Layer 1。它跳出了大公司壟斷數據的限制,讓個人能真正擁有、管理並分享自己的數據。用戶可通過“數據 DAO”(用戶共管、分享並獲益於 AI 訓練數據的去中心化自治組織),在保留數據所有權的前提下,將社交、健康、消費等數據彙集後用於 AI 訓練,並參與分紅。此外,Vana 在設計上重視隱私與安全,採用隱私計算和加密驗證技術保護用戶的數據安全。

Nillion

Nillion 是一個專注於數據隱私和安全計算的“盲計算網絡”,爲開發者和企業提供了一套隱私增強技術(如多方安全計算 MPC、同態加密、零知識證明等),可實現在不解密原始數據的前提下進行數據的存儲、共享和複雜計算。這讓諸如 AI、去中心化金融(DeFi)、醫療、個性化應用等場景能夠更安全地處理高價值和敏感信息,而不必擔心數據泄露風險。目前,Nillion 生態已經支持包括 AI 隱私計算、個性化智能體、私有知識庫等衆多創新應用,吸引了 Virtuals、NEAR、Aptos、Arbitrum 等合作伙伴。

Mira Network

Mira Network 是一個專爲 AI 輸出做“去中心化驗證”的創新網絡,旨在爲自主 AI 打造可信賴的驗證層。Mira 的核心創新採用集成評估技術在後臺同時運行多個不同的語言模型,將 AI 生成的結果細分爲具體斷言後交由分佈式模型節點獨立驗證,只有當絕大多數模型達成共識並認定內容爲“事實”時才輸出給用戶。通過這種多模型共識機制,Mira 將單一模型 25% 的幻覺率顯著降低至僅 3%,相當於錯誤率降低 90% 以上。Mira 摒棄了對中心化大機構或單一大模型的依賴,採用分佈式節點和經濟激勵機制,成爲衆多 Web2 和 Web3 AI 應用的可驗證基礎設施層,真正實現從 AI 副駕駛,向具備自主決策能力且可信任的 AI 系統躍遷。​​​​​​​​​​​​​​​​

Prime Intellect

Prime Intellect 是一個聚焦在去中心化 AI 訓練和算力基礎設施的平臺,致力於整合全球計算資源,推動開源 AI 模型的協同訓練。其核心架構包括點對點的算力租賃市場和開放的訓練協議,允許任何人將閒置硬件貢獻到網絡,用於大模型訓練與推理,從而緩解了傳統 AI 高度集中、門檻高且資源浪費的問題。同時,Prime Intellect 開發了開源分佈式訓練框架(如 OpenDiLoco),支持數十億參數大模型的跨地域高效訓練,並在算法創新與特殊賽道深耕,比如基於元基因組的 METAGENE-1 模型和麪向數學推理的 INTELLECT-MATH 項目。2025 年,Prime Intellect 還推出了 SYNTHETIC-1 計劃,利用衆包與強化學習,打造全球最大開源推理與數學代碼驗證數據集。

未來展望:開放與共贏的去中心化 AI

儘管挑戰重重,鏈上去中心化 AI 依然擁有廣闊的發展前景和變革潛力。隨着底層技術逐步成熟、各項目持續兌現承諾,去中心化 AI 的獨特優勢有望日益凸顯,AI Layer1 們將有望實現以下願景:

· 算力、數據和模型的民主化共享,打破技術寡頭壟斷,讓全球個體、企業和組織都能無門檻參與 AI 創新。

· AI 資產的確權流通與可信治理,推動數據、模型等核心資產在鏈上自由流通和交易,保障所有者的收益,形成健康的開放生態。

· AI 輸出更可信、可追溯、可對齊,爲 AI 的安全、可控發展提供堅實支撐,有效降低“AI 作惡”的風險。

· 行業應用的普惠落地,在金融、醫療、教育、內容創作等領域釋放 AI 的巨大價值,讓 AI 以去中心化方式真正造福社會。

隨着越來越多的 AI Layer1 項目不斷推進,我們期待去中心化 AI 的目標能夠早日實現,也希望有更多開發者、創新者和參與者加入,共同構建一個更加開放、多元和可持續的 AI 生態。

原文鏈接

點擊瞭解律動BlockBeats 在招崗位

歡迎加入律動 BlockBeats 官方社羣:

Telegram 訂閱羣:https://t.me/theblockbeats

Telegram 交流羣:https://t.me/BlockBeats_App

Twitter 官方賬號:https://twitter.com/BlockBeatsAsia

免責聲明:投資有風險,本文並非投資建議,以上內容不應被視為任何金融產品的購買或出售要約、建議或邀請,作者或其他用戶的任何相關討論、評論或帖子也不應被視為此類內容。本文僅供一般參考,不考慮您的個人投資目標、財務狀況或需求。TTM對信息的準確性和完整性不承擔任何責任或保證,投資者應自行研究並在投資前尋求專業建議。

熱議股票

  1. 1
     
     
     
     
  2. 2
     
     
     
     
  3. 3
     
     
     
     
  4. 4
     
     
     
     
  5. 5
     
     
     
     
  6. 6
     
     
     
     
  7. 7
     
     
     
     
  8. 8
     
     
     
     
  9. 9
     
     
     
     
  10. 10