AI Layer1是什么?有哪些項目?六個AI Layer1代表項目詳細(xì)介紹
概述
近年來,OpenAI、Anthropic、Google、Meta 等頭部科技公司不斷推動大語言模型(LLM)的飛速發(fā)展。LLM 在各行各業(yè)展現(xiàn)出前所未有的能力,極大地拓展了人類的想象空間,甚至在部分場景下展現(xiàn)了替代人類勞動的潛力。然而,這些技術(shù)的核心卻牢牢掌握在少數(shù)中心化科技巨頭手中。憑借雄厚的資本和對高昂算力資源的把控,這些公司建立起了難以逾越的壁壘,使絕大多數(shù)開發(fā)者和創(chuàng)新團隊難以與之抗衡。
來源:BONDAI 趨勢分析報告
同時,在 AI 快速演進的初期,社會輿論往往聚焦于技術(shù)帶來的突破和便利,而對隱私保護、透明度、安全性等核心問題的關(guān)注卻相對不足。長期來看,這些問題將深刻影響 AI 行業(yè)的健康發(fā)展和社會接受度。如果無法妥善解決,AI「向善」還是「向惡」的爭議將愈發(fā)突出,而中心化巨頭在逐利本能驅(qū)動下,往往缺乏足夠的動力去主動應(yīng)對這些挑戰(zhàn)。
區(qū)塊鏈技術(shù)憑借其去中心化、透明和抗審查的特性,為 AI 行業(yè)的可持續(xù)發(fā)展提供了新的可能性。目前,Solana、Base 等主流區(qū)塊鏈上已經(jīng)涌現(xiàn)出眾多「 Web3 AI」應(yīng)用。但深入分析可以發(fā)現(xiàn),這些項目仍存在諸多問題:一方面,去中心化程度有限,關(guān)鍵環(huán)節(jié)和基礎(chǔ)設(shè)施仍依賴中心化云服務(wù),meme 屬性過重,難以支撐真正意義上的開放生態(tài);另一方面,與 Web2 世界的 AI 產(chǎn)品相比,鏈上 AI 在模型能力、數(shù)據(jù)利用和應(yīng)用場景等方面仍顯局限,創(chuàng)新深度和廣度有待提升。
要真正實現(xiàn)去中心化 AI 的愿景,使區(qū)塊鏈能夠安全、高效、民主地承載大規(guī)模 AI 應(yīng)用,并在性能上與中心化方案相抗衡,我們需要設(shè)計一條專為 AI 量身打造的 Layer1 區(qū)塊鏈。這將為 AI 的開放創(chuàng)新、治理民主和數(shù)據(jù)安全提供堅實基礎(chǔ),推動去中心化 AI 生態(tài)的繁榮發(fā)展。
AI Layer 1 的核心特性
AI Layer 1 作為一條專為 AI 應(yīng)用量身定制的區(qū)塊鏈,其底層架構(gòu)和性能設(shè)計緊密圍繞 AI 任務(wù)的需求,旨在高效支撐鏈上 AI 生態(tài)的可持續(xù)發(fā)展與繁榮。具體而言,AI Layer 1 應(yīng)具備以下核心能力:
高效的激勵與去中心化共識機制
AI Layer 1 的核心在于構(gòu)建一個開放的算力、存儲等資源的共享網(wǎng)絡(luò)。與傳統(tǒng)區(qū)塊鏈節(jié)點主要聚焦于賬本記賬不同,AI Layer 1 的節(jié)點需要承擔(dān)更復(fù)雜的任務(wù),不僅要提供算力、完成 AI 模型的訓(xùn)練與推理,還需貢獻存儲、數(shù)據(jù)、帶寬等多樣化資源,從而打破中心化巨頭在 AI 基礎(chǔ)設(shè)施上的壟斷。這對底層共識和激勵機制提出了更高要求:AI Layer 1 必須能夠準(zhǔn)確評估、激勵并驗證節(jié)點在 AI 推理、訓(xùn)練等任務(wù)中的實際貢獻,實現(xiàn)網(wǎng)絡(luò)的安全性與資源的高效分配。唯有如此才能保證網(wǎng)絡(luò)的穩(wěn)定與繁榮,并有效降低整體算力成本。
卓越的高性能與異構(gòu)任務(wù)支持能力
AI 任務(wù),尤其是 LLM 的訓(xùn)練與推理,對計算性能和并行處理能力提出了極高的要求。更進一步,鏈上 AI 生態(tài)往往還需支持多樣化、異構(gòu)的任務(wù)類型,包括不同模型結(jié)構(gòu)、數(shù)據(jù)處理、推理、存儲等多元場景。AI Layer 1 必須在底層架構(gòu)上針對高吞吐、低延遲和彈性并行等需求進行深度優(yōu)化,并預(yù)設(shè)對異構(gòu)計算資源的原生支持能力,確保各種 AI 任務(wù)都能高效運行,實現(xiàn)從「單一型任務(wù)」到「復(fù)雜多元生態(tài)」的平滑擴展。
可驗證性與可信輸出保障
AI Layer 1 不僅要防止模型作惡、數(shù)據(jù)篡改等安全隱患,更要從底層機制上確保 AI 輸出結(jié)果的可驗證性和對齊性。通過集成可信執(zhí)行環(huán)境(TEE)、零知識證明(ZK)、多方安全計算(MPC)等前沿技術(shù),平臺能夠讓每一次模型推理、訓(xùn)練和數(shù)據(jù)處理過程都可以被獨立驗證,確保 AI 系統(tǒng)的公正性和透明度。同時,這種可驗證性還能幫助用戶明確 AI 輸出的邏輯和依據(jù),實現(xiàn)「所得即所愿」,提升用戶對 AI 產(chǎn)品的信任和滿意度。
數(shù)據(jù)隱私保護
AI 應(yīng)用經(jīng)常涉及用戶敏感數(shù)據(jù),在金融、醫(yī)療、社交等領(lǐng)域,數(shù)據(jù)隱私保護尤為關(guān)鍵。AI Layer 1 應(yīng)在保障可驗證性的同時,采用基于加密的數(shù)據(jù)處理技術(shù)、隱私計算協(xié)議和數(shù)據(jù)權(quán)限管理等手段,確保數(shù)據(jù)在推理、訓(xùn)練及存儲等全過程中的安全性,有效防止數(shù)據(jù)泄露和濫用,消除用戶在數(shù)據(jù)安全方面的后顧之憂。
強大的生態(tài)承載與開發(fā)支持能力
作為 AI 原生的 Layer 1 基礎(chǔ)設(shè)施,平臺不僅要具備技術(shù)上的領(lǐng)先性,還需為開發(fā)者、節(jié)點運營者、AI 服務(wù)提供商等生態(tài)參與者提供完善的開發(fā)工具、集成 SDK、運維支持和激勵機制。通過持續(xù)優(yōu)化平臺可用性和開發(fā)者體驗,促進豐富多元的 AI 原生應(yīng)用落地,實現(xiàn)去中心化 AI 生態(tài)的持續(xù)繁榮。
基于以上背景與期望,本文將詳細(xì)介紹包括 Sentient、Sahara AI、Ritual 、Gensyn、Bittensor 以及 0G 在內(nèi)的六個 AI Layer1 代表項目,系統(tǒng)梳理賽道的最新進展,剖析項目發(fā)展現(xiàn)狀,并探討未來趨勢。
Sentient:構(gòu)建忠誠的開源去中心化 AI 模型
項目概述
Sentient 是一個開源協(xié)議平臺,正在打造一條 AI Layer1 區(qū)塊鏈 ( 初始階段為 Layer 2,之后將遷移至 Layer 1),通過結(jié)合 AI Pipeline 和區(qū)塊鏈技術(shù),構(gòu)建去中心化的人工智能經(jīng)濟體。其核心目標(biāo)是通過「OML」框架(開放、可盈利、忠誠)解決中心化 LLM 市場中的模型歸屬、調(diào)用追蹤和價值分配問題,使 AI 模型實現(xiàn)鏈上所有權(quán)結(jié)構(gòu)、調(diào)用透明化和價值分潤化。Sentient 的愿景是讓任何人都能夠構(gòu)建、協(xié)作、擁有并將 AI 產(chǎn)品貨幣化,從而推動一個公平、開放的 AI Agent 網(wǎng)絡(luò)生態(tài)。
Sentient Foundation 團隊匯聚了全球頂尖的學(xué)術(shù)專家、區(qū)塊鏈創(chuàng)業(yè)者和工程師,致力于構(gòu)建一個社區(qū)驅(qū)動、開源且可驗證的 AGI 平臺。核心成員包括普林斯頓大學(xué)教授 Pramod Viswanath 和印度科學(xué)研究所教授 Himanshu Tyagi,分別負(fù)責(zé) AI 安全性與隱私保護,同時由 Polygon 聯(lián)合創(chuàng)始人 Sandeep Nailwal 主導(dǎo)區(qū)塊鏈戰(zhàn)略與生態(tài)布局。團隊成員背景橫跨 Meta、Coinbase、Polygon 等知名企業(yè),以及普林斯頓大學(xué)、印度理工學(xué)院等頂尖高校,覆蓋 AI/ML、NLP、計算機視覺等領(lǐng)域,協(xié)力推動項目落地。
作為 Polygon 聯(lián)合創(chuàng)始人 Sandeep Nailwal 的二次創(chuàng)業(yè)項目,Sentient 在成立之初便自帶光環(huán),擁有豐富的資源、人脈和市場認(rèn)知度,為項目發(fā)展提供了強大背書。2024 年中,Sentient 完成了 8500 萬美元的種子輪融資,由 Founders Fund、Pantera 和 Framework Ventures 領(lǐng)投,其他投資機構(gòu)包括 Delphi、Hashkey 和 Spartan 等數(shù)十家知名 VC。
設(shè)計架構(gòu)與應(yīng)用層
1、基建層
核心架構(gòu)
Sentient 的核心架構(gòu)由 AI 管道(AI Pipeline) 和 區(qū)塊鏈系統(tǒng) 兩部分組成:
AI 管道是開發(fā)和訓(xùn)練「忠誠 AI」工件的基礎(chǔ),包含兩個核心過程:?
- 數(shù)據(jù)策劃(Data Curation):?由社區(qū)驅(qū)動的數(shù)據(jù)選擇過程,用于模型的對齊。?
- 忠誠度訓(xùn)練(Loyalty Training):?確保模型保持與社區(qū)意圖一致的訓(xùn)練過程。
區(qū)塊鏈系統(tǒng)為協(xié)議提供透明性和去中心化控制,確保 AI 工件的所有權(quán)、使用跟蹤、收益分配與公平治理。具體架構(gòu)分為四層:
- 存儲層:存儲模型權(quán)重與指紋注冊信息;
- 分發(fā)層:授權(quán)合約控制模型調(diào)用入口;
- 訪問層:通過權(quán)限證明驗證用戶是否授權(quán);
- 激勵層:收益路由合約將每次調(diào)用支付分配給訓(xùn)練者、部署者與驗證者。
Sentient 系統(tǒng)工作流程圖
OML 模型框架
OML 框架(開放 Open、可貨幣化 Monetizable、忠誠 Loyal)是 Sentient 提出的核心理念,旨在為開源 AI 模型提供明確的所有權(quán)保護和經(jīng)濟激勵機制。通過結(jié)合鏈上技術(shù)和 AI 原生加密學(xué),具有以下特點:
- 開放性: 模型必須開源,代碼和數(shù)據(jù)結(jié)構(gòu)透明,便于社區(qū)復(fù)現(xiàn)、審計和改進。
- 貨幣化: 每次模型調(diào)用都會觸發(fā)收益流,鏈上合約會將收益分配給訓(xùn)練者、部署者和驗證者。
- 忠誠性: 模型歸屬于貢獻者社區(qū),升級方向和治理由 DAO 決定,使用和修改受到加密機制的控制。
AI 原生加密學(xué)(AI-native Cryptography)
AI 原生加密是利用 AI 模型的連續(xù)性、低維流形結(jié)構(gòu)與模型可微特性,開發(fā)出「可驗證但不可移除」的輕量級安全機制。其核心技術(shù)是:
- 指紋嵌入:在訓(xùn)練時插入一組隱蔽的 query-response 鍵值對形成模型唯一簽名;
- 所有權(quán)驗證協(xié)議:通過第三方探測器(Prover)以 query 提問形式驗證指紋是否保留;
- 許可調(diào)用機制:調(diào)用前需獲取模型所有者簽發(fā)的「權(quán)限憑證」,系統(tǒng)再據(jù)此授權(quán)模型對該輸入解碼并返回準(zhǔn)確答案。
這種方式可在無重加密成本的情況下實現(xiàn)「基于行為的授權(quán)調(diào)用 + 所屬驗證」。
模型確權(quán)與安全執(zhí)行框架
Sentient 當(dāng)前采用的即為 Melange 混合安全:以指紋確權(quán)、TEE 執(zhí)行、鏈上合約分潤結(jié)合。其中指紋方法為 OML 1.0 實現(xiàn)主線,強調(diào)「樂觀安全(Optimistic Security)」思想,即默認(rèn)合規(guī)、違規(guī)后可檢測并懲罰。
指紋機制 是 OML 的關(guān)鍵實現(xiàn),它通過嵌入特定的「問題 - 回答」對,讓模型在訓(xùn)練階段生成獨特的簽名。通過這些簽名,模型擁有者可以驗證歸屬,防止未經(jīng)授權(quán)的復(fù)制和商業(yè)化。該機制不僅保護了模型開發(fā)者的權(quán)益,還為模型的使用行為提供了可追蹤的鏈上記錄。
此外,Sentient 推出了 Enclave TEE 計算框架,利用可信執(zhí)行環(huán)境(如 AWS Nitro Enclaves)確保模型只響應(yīng)授權(quán)請求,防止未經(jīng)許可的訪問和使用。雖然 TEE 依賴硬件且存在一定安全隱患,但其高性能和實時性優(yōu)勢使其成為當(dāng)前模型部署的核心技術(shù)。
未來,Sentient 計劃引入零知識證明(ZK)和全同態(tài)加密(FHE)技術(shù),進一步增強隱私保護和可驗證性,為 AI 模型的去中心化部署提供更成熟的解決方案。
OML 提出五種可驗證性方法的評估和對比
2、應(yīng)用層
目前,Sentient 的產(chǎn)品主要包括去中心化聊天平臺 Sentient Chat、開源模型 Dobby 系列以及 AI Agent 框架
Dobby 系列模型
SentientAGI 已發(fā)布多個「Dobby」系列模型,主要基于 Llama 模型,聚焦自由、去中心化和加密貨幣支持的價值觀。其中,leashed 版本風(fēng)格較為約束和理性,適合穩(wěn)健輸出的場景;unhinged 版本偏向自由大膽,具備更豐富的對話風(fēng)格。Dobby 模型已經(jīng)被集成到多個 Web3 原生項目中,如 Firework AI 和 Olas,用戶也可以在 Sentient Chat 中直接調(diào)用這些模型進行互動。Dobby 70B 是有史以來最去中心化的模型,擁有超過 60 萬名所有者(持有 Dobby 指紋 NFT 的人同時也是該模型的共同擁有者)。
Sentient 還計劃推出 Open Deep Search,這是一個試圖超越 ChatGPT 和 Perplexity Pro 的搜索代理系統(tǒng)。該系統(tǒng)結(jié)合了 Sensient 的搜索功能(如查詢重述、文檔處理)與推理代理,通過開源 LLM(如 Llama 3.1 和 DeepSeek)提升搜索質(zhì)量。在 Frames Benchmark 上,其性能已超過其他開源模型,甚至接近部分閉源模型,展現(xiàn)了強大的潛力。
Sentient Chat:去中心化聊天與鏈上 AI Agent 集成
Sentient Chat 是一個去中心化聊天平臺,結(jié)合了開源大型語言模型(如 Dobby 系列)與先進的推理代理框架,支持多代理集成和復(fù)雜任務(wù)執(zhí)行。平臺內(nèi)嵌的推理代理可以完成搜索、計算、代碼執(zhí)行等復(fù)雜任務(wù),為用戶提供高效的交互體驗。此外,Sentient Chat 還支持鏈上智能體的直接集成,目前包括占星學(xué) Agent Astro247、加密分析 Agent QuillCheck、錢包分析 Agent Pond Base Wallet Summary 和靈修指引 Agent ChiefRaiin。用戶可以根據(jù)需求選擇不同的智能代理進行互動。Sentient Chat 將作為代理的分發(fā)和協(xié)調(diào)平臺使用。用戶的提問可以被路由到任意一個已集成的模型或代理,以提供最優(yōu)的響應(yīng)結(jié)果。
AI Agent 框架
Sentient 提供兩大 AI Agent 框架:
- Sentient Agent Framework:一個輕量級開源框架,專注于通過自然語言指令實現(xiàn) Web 任務(wù)自動化(如搜索、播放視頻)??蚣苤С謽?gòu)建具備感知、規(guī)劃、執(zhí)行和反饋閉環(huán)的智能體,適合鏈下 Web 任務(wù)的輕量化開發(fā)。
- Sentient Social Agent:針對社交平臺(如 Twitter、Discord 和 Telegram)開發(fā)的 AI 系統(tǒng),支持自動化互動與內(nèi)容生成。通過多智能體協(xié)作,該框架能夠理解社交環(huán)境,并為用戶提供更加智能化的社交體驗,同時可與 Sentient Agent Framework 集成,進一步擴展其應(yīng)用場景。
生態(tài)和參與方式
Sentient Builder Program 目前設(shè)有 100 萬美元資助計劃,旨在鼓勵開發(fā)者利用其開發(fā)套件,構(gòu)建通過 Sentient Agent API 接入、并可在 Sentient Chat 生態(tài)中運行的 AI Agent。Sentient 官網(wǎng)公布的生態(tài)伙伴涵蓋 Crypto AI 多個領(lǐng)域的項目方團隊,如下
Sentient 生態(tài)圖
此外,Sentient Chat 目前處于測試階段,需要通過邀請碼進入白名單后才可訪問,普通用戶可以提交 waitlist。根據(jù)官方信息,已有超過 50,000 名用戶和 1,000,000 次查詢記錄。Sentient Chat 的候補名單上有 2,000,000 名用戶等待加入。
挑戰(zhàn)和展望
Sentient 從模型端入手,致力于解決當(dāng)前大規(guī)模語言模型(LLM)面臨的不對齊、不可信等核心問題,通過 OML 框架和區(qū)塊鏈技術(shù),為模型提供明確的所有權(quán)結(jié)構(gòu)、使用追蹤和行為約束,極大推動了去中心化開源模型的發(fā)展。
憑借 Polygon 聯(lián)合創(chuàng)始人 Sandeep Nailwal 的資源支持,以及頂級 VC 和行業(yè)伙伴的背書,Sentient 在資源整合和市場關(guān)注度上處于領(lǐng)先地位。不過在當(dāng)前市場對高估值項目逐漸祛魅的背景下,Sentient 能否交付真正具有影響力的去中心化 AI 產(chǎn)品,將是其能否成為去中心化 AI 所有權(quán)標(biāo)準(zhǔn)的重要考驗。這些努力不僅關(guān)乎 Sentient 自身的成功,也對整個行業(yè)的信任重建和去中心化發(fā)展具有深遠(yuǎn)影響。
Sahara AI:打造人人參與的去中心化 AI 世界
項目概述
Sahara AI 是一個為 AI × Web3 新范式而生的去中心化基礎(chǔ)設(shè)施致力于構(gòu)建一個開放、公平且協(xié)作的人工智能經(jīng)濟。項目通過去中心化賬本技術(shù),實現(xiàn)數(shù)據(jù)集、模型和智能 Agent 的鏈上管理與交易,確保數(shù)據(jù)和模型的主 權(quán)與可追溯性。同時,Sahara AI 引入透明、公平的激勵機制,讓所有貢獻者,包括數(shù)據(jù)提供者、標(biāo)注員和模型開發(fā)者,都能在協(xié)作過程中獲得不可篡改的收入回報。平臺還通過一個無需許可的「版權(quán)」系統(tǒng),保護貢獻者對 AI 資產(chǎn)的所有權(quán)和歸屬,并鼓勵開放共享和創(chuàng)新。
Sahara AI 提供從數(shù)據(jù)收集、標(biāo)注到模型訓(xùn)練、AI Agent 創(chuàng)建、AI 資產(chǎn)交易等服務(wù)的一站式解決方案,覆蓋整個 AI 生命周期,成為滿足 AI 開發(fā)需求的全方位生態(tài)平臺。其產(chǎn)品質(zhì)量和技術(shù)能力已獲得微軟、亞馬遜、麻省理工學(xué)院(MIT)、Motherson 集團和 Snap 等全球頂尖企業(yè)和機構(gòu)的高度認(rèn)可,展現(xiàn)出強大的行業(yè)影響力和廣泛的適用性。
Sahara 不只是一個科研項目,而是由一線技術(shù)創(chuàng)業(yè)者與投資人聯(lián)合推動、具備落地導(dǎo)向的深科技平臺。其核心架構(gòu)有可能成為 AI × Web3 應(yīng)用落地的關(guān)鍵支點。Sahara AI 已獲得 Pantera Capital、Binance Labs、紅杉中國等頭部機構(gòu)累計 4,300 萬美元的投資支持;由南加州大學(xué)終身教授、2023 年度三星研究員 Sean Ren 和前 Binance Labs 投資總監(jiān) Tyler Zhou 共同創(chuàng)立,核心團隊成員來自斯坦福大學(xué)、加州大學(xué)伯克利分校、微軟、谷歌、幣安等頂尖機構(gòu),融合了學(xué)術(shù)界與產(chǎn)業(yè)界的深厚積累。
設(shè)計架構(gòu)
Sahara AI 架構(gòu)圖
1、基礎(chǔ)層
Sahara AI 的基礎(chǔ)層分為:1.鏈上層用于 AI 資產(chǎn)的注冊與變現(xiàn),2.鏈下層用于運行 Agents 與 AI 服務(wù)。由鏈上系統(tǒng)與鏈下系統(tǒng)協(xié)同構(gòu)成,負(fù)責(zé) AI 資產(chǎn)的注冊、確權(quán)、執(zhí)行與收益分配,支撐整個 AI 生命周期的可信協(xié)作。
Sahara 區(qū)塊鏈與 SIWA 測試網(wǎng)(鏈上基礎(chǔ)設(shè)施)
SIWA 測試網(wǎng)是 Sahara 區(qū)塊鏈的第一個公開版本。Sahara 區(qū)塊鏈協(xié)議(SBP)是 Sahara 區(qū)塊鏈的核心,這是一套專為 AI 構(gòu)建的智能合約系統(tǒng),實現(xiàn)了 AI 資產(chǎn)的鏈上所有權(quán)、溯源記錄與收益分配。核心模塊包括資產(chǎn)注冊系統(tǒng)、所有權(quán)協(xié)議、貢獻追蹤、權(quán)限管理、收益分配、執(zhí)行證明等,構(gòu)建出面向 AI 的「鏈上操作系統(tǒng)」。
AI 執(zhí)行協(xié)議(鏈下基礎(chǔ)設(shè)施)
為支撐模型運行與調(diào)用的可信性,Sahara 同時構(gòu)建了鏈下的 AI 執(zhí)行協(xié)議體系,結(jié)合可信執(zhí)行環(huán)境(TEE),支持 Agent 創(chuàng)建、部署、運行與協(xié)同開發(fā)。每次任務(wù)執(zhí)行均自動生成可驗證記錄,并上傳鏈上,確保全流程可追溯、可驗證。鏈上系統(tǒng)負(fù)責(zé)注冊、授權(quán)與所有權(quán)記錄,鏈下 AI 執(zhí)行協(xié)議則支持 AI Agent 的實時運行與服務(wù)交互。
由于 Sahara 跨鏈兼容,因此基于 Sahara AI 的基礎(chǔ)設(shè)施構(gòu)建的應(yīng)用可以部署在任何鏈上,甚至鏈下。
2、應(yīng)用層
Sahara AI 數(shù)據(jù)服務(wù)平臺(DSP)
數(shù)據(jù)服務(wù)平臺(DSP)是 Sahara 應(yīng)用層的基礎(chǔ)模塊,任何人都可通過 Sahara ID 接受數(shù)據(jù)任務(wù),參與數(shù)據(jù)標(biāo)注、去噪與審核,并獲得鏈上積分獎勵(Sahara Points)作為貢獻憑證。這一機制不僅保障了數(shù)據(jù)溯源與權(quán)屬,同時推動「貢獻 - 獎勵 - 模型優(yōu)化」形成閉環(huán)。目前進行到了第四季活動,這也是普通用戶可以參與貢獻的主要方式。
在此基礎(chǔ)上,為了鼓勵用戶提交高質(zhì)量的數(shù)據(jù)與服務(wù),通過介紹雙重激勵機制,不僅可獲得 Sahara 提供的獎勵,還能獲得生態(tài)伙伴的額外回報,實現(xiàn)一次貢獻、多方收益。以數(shù)據(jù)貢獻者為例,一旦其數(shù)據(jù)被模型反復(fù)調(diào)用或用于生成新應(yīng)用,即可持續(xù)獲取收益,真正參與 AI 價值鏈。這一機制不僅延長了數(shù)據(jù)資產(chǎn)的生命周期,也為協(xié)作與共建注入了強大動能,例如,BNB Chain 上的 MyShell 就通過 DSP 眾包生成定制數(shù)據(jù)集,提升模型性能,用戶則獲得 MyShell 代幣激勵,形成雙贏閉環(huán)。
AI 企業(yè)可以基于數(shù)據(jù)服務(wù)平臺來眾包定制數(shù)據(jù)集,通過發(fā)布專門的數(shù)據(jù)任務(wù),快速從位于全球的數(shù)據(jù)標(biāo)注者獲得響應(yīng)。AI 企業(yè)不再只依賴傳統(tǒng)中心化數(shù)據(jù)供應(yīng)商,就可大規(guī)模獲取高質(zhì)量標(biāo)注數(shù)據(jù)。
Sahara AI Developer Platform
Sahara AI Developer Platform 是一個面向開發(fā)者與企業(yè)的一站式 AI 構(gòu)建與運營平臺,提供從數(shù)據(jù)獲取、模型訓(xùn)練到部署執(zhí)行與資產(chǎn)變現(xiàn)的全流程支持。用戶可以直接調(diào)用 Sahara DSP 中的高質(zhì)量數(shù)據(jù)資源,將其用于模型的訓(xùn)練與微調(diào);處理完成的模型可在平臺內(nèi)進行組合、注冊并上架至 AI 市場,通過 Sahara 區(qū)塊鏈實現(xiàn)所有權(quán)確權(quán)與靈活授權(quán)。Studio 同時整合去中心化計算能力,支持模型訓(xùn)練與 Agent 的部署運行,確保計算過程的安全性與可驗證性。開發(fā)者還可將關(guān)鍵數(shù)據(jù)和模型存儲,進行加密托管和權(quán)限控制,防止未授權(quán)訪問。通過 Sahara AI AI Developer Platform,開發(fā)者無需自建基礎(chǔ)設(shè)施,即可以更低門檻構(gòu)建、部署并商業(yè)化 AI 應(yīng)用,并通過協(xié)議化機制全面融入鏈上 AI 經(jīng)濟體系。
AI Markerplace
Sahara AI Marketplace 是一個面向模型、數(shù)據(jù)集與 AI Agent 的去中心化資產(chǎn)市場。它不僅支持資產(chǎn)的注冊、交易與授權(quán),更構(gòu)建了一套透明且可追蹤的收益分配機制。開發(fā)者可以將自己構(gòu)建的模型或收集的數(shù)據(jù)集注冊為鏈上資產(chǎn),設(shè)置靈活的使用授權(quán)與分潤比例,系統(tǒng)將根據(jù)調(diào)用頻次自動執(zhí)行收益結(jié)算。數(shù)據(jù)貢獻者也能因其數(shù)據(jù)被重復(fù)調(diào)用而持續(xù)獲得分潤,實現(xiàn)「持續(xù)變現(xiàn)」。
這一市場與 Sahara 區(qū)塊鏈協(xié)議深度整合,所有資產(chǎn)交易、調(diào)用、分潤記錄都將鏈上可驗證,確保資產(chǎn)歸屬明確、收益可追蹤。借助該市場,AI 開發(fā)者不再依賴傳統(tǒng) API 平臺或中心化模型托管服務(wù),而是擁有自主、可編程的商業(yè)化路徑。
3、生態(tài)層
Sahara AI 的生態(tài)層串連了資料提供者、AI 開發(fā)者、消費者、企業(yè)用戶與跨鏈合作伙伴。無論是想貢獻資料、開發(fā)應(yīng)用、使用產(chǎn)品,還是推動企業(yè)內(nèi)部 AI 化,都能發(fā)揮作用并找到收益模式。資料標(biāo)注者、模型開發(fā)團隊與算力供應(yīng)者可以將其資源注冊為鏈上資產(chǎn),透過 Sahara AI 的協(xié)議機制進行授權(quán)與分潤,讓每一次被使用的資源都能自動獲得回報。開發(fā)者則能通過一站式的平臺串接資料、訓(xùn)練模型、部署 Agent,在 AI Marketplace 中直接商業(yè)化他們的成果。
一般用戶無需技術(shù)背景,也可參與資料任務(wù)、使用 AI App、收藏或投資鏈上資產(chǎn),成為 AI 經(jīng)濟的一部分。對企業(yè)來說,Sahara 提供從資料眾包、模型開發(fā)到私有部署與收益變現(xiàn)的全流程支持。除此之外,Sahara 支援跨鏈部署,任何公鏈生態(tài)都可使用 Sahara AI 提供的協(xié)議與工具來建構(gòu) AI 應(yīng)用、接入去中心化 AI 資產(chǎn),實現(xiàn)與多鏈?zhǔn)澜绲募嫒菖c擴展。這使得 Sahara AI 不只是單一平臺,更是一個鏈上 AI 生態(tài)的底層協(xié)作標(biāo)準(zhǔn)。
生態(tài)進展
自項目啟動以來,Sahara AI 不僅僅提供一套 AI 工具或算力平臺,還在在鏈上重構(gòu) AI 的生產(chǎn)與分配秩序,打造一個人人都能參與、確權(quán)、貢獻與共享的去中心化協(xié)作網(wǎng)絡(luò)。正因如此,Sahara 選擇以區(qū)塊鏈作為底層架構(gòu),為 AI 構(gòu)建可驗證、可追蹤、可分配的經(jīng)濟體系。
圍繞這一核心目標(biāo),Sahara 生態(tài)已取得顯著進展。在尚處于私測階段的情況下,平臺已累計生成超 320 萬個鏈上賬戶,日活躍賬戶穩(wěn)定在 140 萬以上,顯示出用戶參與度與網(wǎng)絡(luò)活力。其中,超過 20 萬名用戶通過 Sahara 數(shù)據(jù)服務(wù)平臺參與了數(shù)據(jù)標(biāo)注、訓(xùn)練與驗證任務(wù),并獲得鏈上激勵獎勵。同時,仍有數(shù)百萬用戶在等待加入白名單,印證了市場對去中心化 AI 平臺的強烈需求與共識。
在企業(yè)合作方面,Sahara 已與微軟、亞馬遜、麻省理工學(xué)院(MIT)等全球領(lǐng)先機構(gòu)建立合作,為其提供定制化的數(shù)據(jù)采集與標(biāo)注服務(wù)。企業(yè)可通過平臺提交具體任務(wù),由 Sahara 全球數(shù)據(jù)標(biāo)注者組成的網(wǎng)絡(luò)高效執(zhí)行,實現(xiàn)規(guī)模化眾包,執(zhí)行效率、靈活性、多樣化需求支持方面的優(yōu)勢。
Sahara AI 生態(tài)圖
參與方式
SIWA 將分四個階段推出。目前第一階段為鏈上數(shù)據(jù)所有權(quán)打基礎(chǔ),貢獻者可以將自己的數(shù)據(jù)集注冊并代幣化。目前對外公開開放,不需要白名單。需要確保上傳的是對 AI 有用的數(shù)據(jù),抄襲或者不當(dāng)內(nèi)容可能會受到處理。
第二階段實現(xiàn)數(shù)據(jù)集與模型的鏈上變現(xiàn)。第三階段開放測試網(wǎng),并開源協(xié)議。 第四階段推出 AI 數(shù)據(jù)流注冊、溯源追蹤與貢獻證明機制。
SIWA 測試網(wǎng)
除了 SIWA 測試網(wǎng),現(xiàn)階段普通用戶可以參與 Sahara Legends,通過游戲化任務(wù)了解 Sahara AI 的功能。完成任務(wù)后收獲守護者碎片,最后可以合成一個 NFT 來記錄對網(wǎng)絡(luò)的貢獻。
或者在數(shù)據(jù)服務(wù)平臺標(biāo)注數(shù)據(jù),貢獻有價值數(shù)據(jù),以及擔(dān)任審核員。Sahara 后續(xù)計劃和生態(tài)伙伴合作發(fā)布任務(wù),讓參與者除了獲得 Sahara 的積分外還可獲得生態(tài)伙伴的激勵。第一次雙獎勵任務(wù)和 Myshell 一起舉辦,用戶完成任務(wù)可獲得 Sahara 的積分和 Myshell 的代幣獎勵。
根據(jù)路線圖,Sahara 預(yù)計于 2025 年 Q3 推出主網(wǎng),屆時可能也會迎來 TGE。
挑戰(zhàn)和展望
Sahara AI 讓 AI 不再局限于開發(fā)人員或者大的 AI 公司,讓 AI 更加開放包容和民主化。對于普通用戶,無須編程知識即參與貢獻并獲取收益,Sahara AI 打造的是一個人人都能參與的去中心化 AI 世界。對于技術(shù)開發(fā)人員,Sahara AI 打通 Web2 和 Web3 開發(fā)路徑,提供了去中心化但靈活強大的開發(fā)工具和高質(zhì)量的數(shù)據(jù)集。對于 AI 基礎(chǔ)設(shè)施提供者,Sahara AI 提供了模型、數(shù)據(jù)、算力與服務(wù)的去中心化變現(xiàn)新路徑。Sahara AI 不僅僅只做公鏈基礎(chǔ)設(shè)施,還下場做核心應(yīng)用,利用區(qū)塊鏈技術(shù)促進 AI 版權(quán)系統(tǒng)的發(fā)展?,F(xiàn)階段 Sahara AI 已經(jīng)和多個頂級 AI 機構(gòu)達成合作,取得初步成功。后續(xù)是否成功,還應(yīng)觀察主網(wǎng)上線后的性能表現(xiàn),生態(tài)產(chǎn)品發(fā)展和采用率以及經(jīng)濟模型能否在 TGE 后驅(qū)動用戶繼續(xù)為數(shù)據(jù)集做貢獻。
Ritual:創(chuàng)新設(shè)計突破異構(gòu)任務(wù)等 AI 核心難題
項目概述
Ritual 旨在解決當(dāng)前 AI 行業(yè)中存在的中心化、封閉性和信任問題,為 AI 提供透明的驗證機制、公平的計算資源分配以及靈活的模型適配能力;允許任何協(xié)議、應(yīng)用或智能合約以幾行代碼的形式集成可驗證的 AI 模型;并通過其開放的架構(gòu)和模塊化的設(shè)計,推動 AI 在鏈上的廣泛應(yīng)用,打造一個開放、安全且可持續(xù)的 AI 生態(tài)系統(tǒng)。
Ritual 于 2023 年 11 月完成 2500 萬美元 A 輪融資,由 Archetype 領(lǐng)投,Accomplice 等多家機構(gòu)及知名天使投資人參與,展示了市場認(rèn)可和團隊的強大社交能力。創(chuàng)始人 Niraj Pant 和 Akilesh Potti 均為前 Polychain Capital 合伙人,曾主導(dǎo)投資 Offchain Labs、EigenLayer 等行業(yè)巨頭,展現(xiàn)出深刻洞見與判斷力。團隊在密碼學(xué)、分布式系統(tǒng)、AI 等領(lǐng)域經(jīng)驗豐富,顧問陣容包括 NEAR 和 EigenLayer 等項目創(chuàng)始人,彰顯了其強大的背景與潛力。
設(shè)計架構(gòu)
從 Infernet 到 Ritual Chain
Ritual Chain 是從 Infernet 節(jié)點網(wǎng)絡(luò)自然過渡而來的第二代產(chǎn)品,代表了 Ritual 在去中心化 AI 計算網(wǎng)絡(luò)上的全面升級。
Infernet 是 Ritual 推出的第一階段產(chǎn)品,于 2023 年正式上線。這是一個為異構(gòu)計算任務(wù)設(shè)計的去中心化預(yù)言機網(wǎng)絡(luò),旨在解決中心化 API 的局限性,讓開發(fā)者能夠更加自由、穩(wěn)定地調(diào)用透明且開放的去中心化 AI 服務(wù)。
Infernet 采用了靈活簡單的輕量化框架,由于其易用性和高效性,在推出后迅速吸引了 8,000 多個獨立節(jié)點加入。這些節(jié)點具備多樣化的硬件能力,包括 GPU 和 FPGA,能夠為 AI 推理和零知識證明生成等復(fù)雜任務(wù)提供強大的計算能力。然而,為了保持系統(tǒng)的簡潔性,Infernet 放棄了一些關(guān)鍵功能,例如通過共識協(xié)調(diào)節(jié)點或集成穩(wěn)健的任務(wù)路由機制。這些限制使 Infernet 難以滿足更廣泛的 Web2 和 Web3 開發(fā)者的需求,從而促使 Ritual 推出了更加全面和強大的 Ritual Chain。
Ritual Chain 是專為 AI 應(yīng)用設(shè)計的下一代 Layer 1 區(qū)塊鏈,旨在彌補 Infernet 的局限性,并為開發(fā)者提供更加穩(wěn)健和高效的開發(fā)環(huán)境。通過 Resonance 技術(shù),Ritual Chain 為 Infernet 網(wǎng)絡(luò)提供了簡潔且可靠的定價和任務(wù)路由機制,大幅優(yōu)化了資源分配效率。此外,Ritual Chain 基于 EVM++ 框架,這是對以太坊虛擬機(EVM)的向后兼容擴展,具備更強大的功能,包括預(yù)編譯模塊、原生調(diào)度(schedu ling)、內(nèi)置賬戶抽象(Account Abstraction, AA)以及一系列先進的以太坊改進提案(EIPs)。這些特性共同構(gòu)建了一個功能強大、靈活且高效的開發(fā)環(huán)境,為開發(fā)者提供了全新的可能性。
Ritual Chain 工作流程圖
預(yù)編譯 Sidecars
與傳統(tǒng)預(yù)編譯相比,Ritual Chain 的設(shè)計提升了系統(tǒng)的擴展性和靈活性,允許開發(fā)者以容器化方式創(chuàng)建自定義功能模塊,而無需修改底層協(xié)議。這種架構(gòu)不僅顯著降低了開發(fā)成本,還為去中心化應(yīng)用提供了更強大的計算能力。
具體來說 Ritual Chain 通過模塊化架構(gòu)將復(fù)雜計算從執(zhí)行客戶端中解耦,并以獨立的 Sidecars 形式實現(xiàn)。這些預(yù)編譯模塊能夠高效處理復(fù)雜的計算任務(wù),包括 AI 推理、零知識證明生成和可信執(zhí)行環(huán)境(TEE)操作等。
原生調(diào)度(Native Schedu ling)
原生調(diào)度解決了任務(wù)定時觸發(fā)和條件執(zhí)行的需求。傳統(tǒng)區(qū)塊鏈通常依賴中心化的第三方服務(wù)(如 keeper)來觸發(fā)任務(wù)執(zhí)行,但這種模式存在中心化風(fēng)險和高額成本。Ritual Chain 通過內(nèi)置調(diào)度器徹底擺脫了對中心化服務(wù)的依賴,開發(fā)者可以直接在鏈上設(shè)置智能合約的入口點和回調(diào)頻率(callback frequency)。區(qū)塊生產(chǎn)者會維護掛起調(diào)用的映射表,在生成新區(qū)塊時優(yōu)先處理這些任務(wù)。結(jié)合 Resonance 的資源動態(tài)分配機制,Ritual Chain 能夠高效且可靠地處理計算密集型任務(wù),為去中心化 AI 應(yīng)用提供了穩(wěn)定的保障。
技術(shù)創(chuàng)新
Ritual 的核心技術(shù)創(chuàng)新確保了其在性能、驗證和擴展性上的領(lǐng)先地位,為鏈上 AI 應(yīng)用提供了強大的支持。
1. Resonance:優(yōu)化資源分配
Resonance 是一個優(yōu)化區(qū)塊鏈資源分配的雙邊市場機制,解決異構(gòu)交易的復(fù)雜性。隨著區(qū)塊鏈交易從簡單轉(zhuǎn)賬演變?yōu)橹悄芎霞s、AI 推理等多樣化形式,現(xiàn)有的費用機制(如 EIP-1559)難以高效匹配用戶需求與節(jié)點資源。Resonance 通過引入 Broker 和 Auctioneer 兩個核心角色,實現(xiàn)了用戶交易與節(jié)點能力之間的最佳匹配:
- Broker 負(fù)責(zé)分析用戶交易的費用意愿和節(jié)點的資源成本函數(shù),以實現(xiàn)交易與節(jié)點之間的最佳匹配,提升計算資源的利用率。
- Auctioneer 通過雙邊拍賣機制組織交易費用分配,確保公平性和透明性。節(jié)點根據(jù)自身硬件能力選擇交易類型,而用戶則可根據(jù)優(yōu)先條件(如速度或成本)提交交易需求。
這一機制顯著提高了網(wǎng)絡(luò)的資源利用效率和用戶體驗,同時通過去中心化的拍賣流程進一步增強了系統(tǒng)的透明性和開放性。
Resonance 機制下:Auctioneer 根據(jù) Broker 的分析,將合適的任務(wù)分配給節(jié)點
2. Symphony:提升驗證效率
Symphony 則專注于提升驗證效率,解決傳統(tǒng)區(qū)塊鏈「重復(fù)執(zhí)行」模式在處理和驗證復(fù)雜計算任務(wù)時的低效問題。Symphony 基于「執(zhí)行一次,多次驗證」(EOVMT)的模型,通過將計算與驗證流程分離,大幅減少重復(fù)計算帶來的性能損耗。
計算任務(wù)由指定節(jié)點執(zhí)行一次,計算結(jié)果通過網(wǎng)絡(luò)廣播,驗證節(jié)點利用非交互證明(succinct proofs)確認(rèn)結(jié)果的正確性,而無需重復(fù)執(zhí)行計算。
Symphony 支持分布式驗證,將復(fù)雜任務(wù)分解為多個子任務(wù),由不同的驗證節(jié)點并行處理,從而進一步提升驗證效率,并確保隱私保護和安全性。
Symphony 對可信執(zhí)行環(huán)境(TEE)和零知識證明(ZKP)等證明系統(tǒng)高度兼容,為快速確認(rèn)交易和隱私敏感的計算任務(wù)提供靈活支持。這一架構(gòu)不僅顯著降低了重復(fù)計算帶來的性能開銷,還確保了驗證過程的去中心化和安全性。
Symphony 將復(fù)雜任務(wù)分解為多個子任務(wù),由不同的驗證節(jié)點并行處理
3. vTune:可追蹤的模型驗證
vTune 是 Ritual 提供的一種用于模型驗證和來源追蹤的工具,對模型性能幾乎沒有影響,同時具備良好的抗干擾能力,特別適用于保護開源模型的知識產(chǎn)權(quán)并促進公平分發(fā)。vTune 結(jié)合了水印技術(shù)和零知識證明,通過嵌入隱蔽的標(biāo)記實現(xiàn)模型來源追蹤和計算完整性保障:
- 水印技術(shù):通過權(quán)重空間水印、數(shù)據(jù)水印或函數(shù)空間水印嵌入標(biāo)記,即使模型公開,其歸屬仍可以被驗證。特別是函數(shù)空間水印能夠在無需訪問模型權(quán)重的情況下,通過模型輸出驗證歸屬,從而實現(xiàn)更強的隱私保護和魯棒性。
- 零知識證明:在模型微調(diào)過程中引入隱蔽數(shù)據(jù),用于驗證模型是否被篡改,同時保護模型創(chuàng)建者的權(quán)益。
這一工具不僅為去中心化 AI 模型市場提供了可信的來源驗證,還顯著提升了模型的安全性和生態(tài)透明性。
生態(tài)發(fā)展
Ritual 目前處于私有測試網(wǎng)階段,對于普通用戶來說參與機會較少;開發(fā)者可以申請并參與官方推出的 Altar 和 Realm 激勵計劃,加入 Ritual 的 AI 生態(tài)建設(shè),獲得來自官方的全棧技術(shù)支持以及資金支持。
目前官方公布了一批來自 Altar 計劃的原生應(yīng)用:
- Relic:基于機器學(xué)習(xí)的自動做市商(AMM),通過 Ritual 的基礎(chǔ)設(shè)施動態(tài)調(diào)整流動性池參數(shù),實現(xiàn)費用和底層池的優(yōu)化;
- Anima:專注于基于 LLM 的鏈上交易自動化工具,為用戶提供流暢自然的 Web3 交互體驗;
- Tithe: AI 驅(qū)動的借貸協(xié)議,通過動態(tài)優(yōu)化借貸池和信用評分,支持更廣泛的資產(chǎn)類型。
此外,Ritual 還與多個成熟項目展開了深度合作,推動去中心化 AI 生態(tài)的發(fā)展。例如,與 Arweave 的合作為模型、數(shù)據(jù)和零知識證明提供了去中心化的永久存儲支持;通過與 StarkWare 和 Arbitrum 的集成,Ritual 為這些生態(tài)系統(tǒng)引入了原生的鏈上 AI 能力;此外,EigenLayer 提供的再質(zhì)押機制為 Ritual 的證明市場增加了主動驗證服務(wù),進一步增強了網(wǎng)絡(luò)的去中心化和安全性。
挑戰(zhàn)和展望
Ritual 的設(shè)計從分配、激勵、驗證等關(guān)鍵環(huán)節(jié)入手,解決了去中心化 AI 面臨的核心問題,同時通過 vTune 等工具實現(xiàn)了模型的可驗證性,突破了模型開源與激勵的矛盾,為去中心化模型市場的構(gòu)建提供了技術(shù)支撐。
當(dāng)下 Ritual 處于早期階段,主要針對模型的推理階段,產(chǎn)品矩陣正在從基礎(chǔ)設(shè)施擴展至模型市場、L2 即服務(wù)(L2aaS)以及 Agent 框架等領(lǐng)域。由于當(dāng)下區(qū)塊鏈仍處于私有測試階段,Ritual 提出的先進的技術(shù)設(shè)計方案仍有待大規(guī)模公開落地,需要持續(xù)關(guān)注。期待隨著技術(shù)的不斷完善和生態(tài)的逐步豐富,Ritual 能夠成為去中心化 AI 基礎(chǔ)設(shè)施的重要組成部分。
Gensyn:解決去中心化模型訓(xùn)練的核心問題
項目概述
在人工智能加速演進、算力資源愈發(fā)稀缺的時代背景下,Gensyn 正試圖重塑整個 AI 模型訓(xùn)練的底層范式。
傳統(tǒng) AI 模型訓(xùn)練流程,算力幾乎被壟斷在少數(shù)幾家云計算巨頭手中,訓(xùn)練成本高昂、透明度低,阻礙了中小團隊與獨立研究者的創(chuàng)新步伐。而 Gensyn 的愿景正是打破這一「中心化壟斷」結(jié)構(gòu),它主張將訓(xùn)練任務(wù)「下沉」至全球范圍內(nèi)無數(shù)個具備基本計算能力的設(shè)備上——無論是 MacBook、游戲級 GPU,還是邊緣設(shè)備、閑置服務(wù)器,都可接入網(wǎng)絡(luò)、參與任務(wù)執(zhí)行、獲取報酬。
Gensyn 成立于 2020 年,專注于構(gòu)建去中心化 AI 計算基礎(chǔ)設(shè)施。早在 2022 年,團隊便首次提出了意圖在技術(shù)和制度層面重新定義 AI 模型的訓(xùn)練方式:不再依賴封閉的云平臺或巨型服務(wù)器集群,而是將訓(xùn)練任務(wù)下沉至全球范圍內(nèi)的異構(gòu)計算節(jié)點之中,構(gòu)建一個無需信任的智能計算網(wǎng)絡(luò)。
2023 年,Gensyn 對其愿景進行了進一步拓展:構(gòu)建一個全球連接、開源自治、無許可門檻的 AI 網(wǎng)絡(luò)——任何具備基本計算能力的設(shè)備,都可成為這個網(wǎng)絡(luò)中的一份子。其底層協(xié)議基于區(qū)塊鏈架構(gòu)設(shè)計,不僅具備激勵機制與驗證機制的可組合性。
Gensyn 自創(chuàng)立以來,累計獲得 5060 萬美元支持,投資方涵蓋 a16z、CoinFund、Canonical、Protocol Labs、Distributed Global 等共計 17 家機構(gòu)。其中,2023 年 6 月由 a16z 領(lǐng)投的 A 輪融資被廣泛關(guān)注,標(biāo)志著去中心化 AI 領(lǐng)域開始進入主流 Web3 風(fēng)投的視野。
團隊核心成員背景也頗具分量:聯(lián)合創(chuàng)始人 Ben Fielding 曾在牛津大學(xué)攻讀理論計算機科學(xué),具備深厚的技術(shù)研究背景;另一位聯(lián)合創(chuàng)始人 Harry Grieve 則長期參與去中心化協(xié)議的系統(tǒng)設(shè)計與經(jīng)濟建模,為 Gensyn 的架構(gòu)設(shè)計與激勵機制提供了堅實支撐。
設(shè)計架構(gòu)
當(dāng)前去中心化人工智能系統(tǒng)的發(fā)展正面臨三大核心技術(shù)瓶頸:執(zhí)行(Execution)、驗證(Verification)與通信(Communication)。這些瓶頸不僅限制了大模型訓(xùn)練能力的釋放,也制約了全球算力資源的公平整合與高效利用。Gensyn 團隊在系統(tǒng)性研究基礎(chǔ)上,提出了三項具有代表性的創(chuàng)新機制——RL Swarm、Verde 以及 SkipPipe,針對上述問題分別構(gòu)建了解決路徑,推動了去中心化 AI 基礎(chǔ)設(shè)施從概念走向落地。
一、執(zhí)行挑戰(zhàn):如何讓碎片化設(shè)備協(xié)同高效訓(xùn)練大模型?
當(dāng)前,大語言模型的性能提升主要依賴于「堆規(guī)模」策略:更大的參數(shù)量、更廣的數(shù)據(jù)集以及更長的訓(xùn)練周期。但這也顯著推高了計算成本——超大模型的訓(xùn)練往往需要被拆分至成千上萬個 GPU 節(jié)點,這些節(jié)點之間還需進行高頻的數(shù)據(jù)通信與梯度同步。在去中心化場景下,節(jié)點分布地域廣泛、硬件異構(gòu)、狀態(tài)波動性高,傳統(tǒng)的中心化調(diào)度策略難以奏效。
為應(yīng)對這一挑戰(zhàn),Gensyn 提出 RL Swarm,一種點對點的強化學(xué)習(xí)后訓(xùn)練系統(tǒng)。其核心思路是將訓(xùn)練過程轉(zhuǎn)化為一個分布式協(xié)作博弈。該機制分為「共享—批判—決策」三階段:首先,節(jié)點獨立完成問題推理并公開共享結(jié)果;隨后,各節(jié)點對同伴答案進行評價,從邏輯性與策略合理性等角度提出反饋;最后,節(jié)點基于群體意見修正自身輸出,生成更穩(wěn)健的答案。該機制有效融合個體計算與群體協(xié)同,尤其適用于數(shù)學(xué)與邏輯推理等需要高精度和可驗證性的任務(wù)。實驗顯示,RL Swarm 不僅提升了效率,也顯著降低了參與門檻,具備良好的擴展性和容錯性。
RL Swarm 的「共享—批判—決策」三階段強化學(xué)習(xí)訓(xùn)練系統(tǒng)
二、驗證挑戰(zhàn):如何驗證不可信供應(yīng)者的計算結(jié)果是否正確?
在去中心化訓(xùn)練網(wǎng)絡(luò)中,「任何人都可提供算力」是優(yōu)勢也是風(fēng)險。問題在于:如何在無需信任的前提下驗證這些計算是否真實有效?
傳統(tǒng)方式如重計算或白名單審核存在明顯局限——前者成本極高,不具可擴展性;后者又排除了「長尾」節(jié)點,損害網(wǎng)絡(luò)開放性。Gensyn 為此設(shè)計了 Verde,一套專為神經(jīng)網(wǎng)絡(luò)訓(xùn)練驗證場景構(gòu)建的輕量級仲裁協(xié)議。
Verde 的關(guān)鍵思想是「最小可信裁定」:當(dāng)驗證者懷疑供應(yīng)者訓(xùn)練結(jié)果有誤時,仲裁合約只需重算計算圖中首個存在爭議的操作節(jié)點,而無需重演整個訓(xùn)練過程。這大幅度降低了驗證負(fù)擔(dān),同時確保了至少一方誠實時的結(jié)果正確性。為解決不同硬件間浮點非確定性問題,Verde 還配套開發(fā)了 Reproducible Operators(可復(fù)現(xiàn)操作符庫),強制對常見數(shù)學(xué)操作如矩陣乘法設(shè)置統(tǒng)一執(zhí)行順序,從而實現(xiàn)跨設(shè)備的位級一致輸出。這一技術(shù)顯著提升了分布式訓(xùn)練的安全性與工程可行性,是目前去信任驗證體系中的重要突破。
整個機制建立在訓(xùn)練者記錄關(guān)鍵中間狀態(tài)(即檢查點)的基礎(chǔ)上,多個驗證者被隨機指派去復(fù)現(xiàn)這些訓(xùn)練步驟,從而判斷輸出的一致性。一旦有驗證者復(fù)算結(jié)果與訓(xùn)練者存在分歧,系統(tǒng)不會粗暴地重跑整個模型,而是通過網(wǎng)絡(luò)仲裁機制精確定位二者在計算圖中首次發(fā)生分歧的操作,僅對該操作進行重放比對,從而以極低的開銷實現(xiàn)爭議裁決。通過這種方式,Verde 在無需信任訓(xùn)練節(jié)點的前提下,既保證了訓(xùn)練過程的完整性,又兼顧了效率與可擴展性,是為分布式 AI 訓(xùn)練環(huán)境量身定制的驗證框架。
Vader 的工作流程
三、通信挑戰(zhàn):如何減少節(jié)點間高頻同步帶來的網(wǎng)絡(luò)瓶頸?
在傳統(tǒng)的分布式訓(xùn)練中,模型要么被完整復(fù)制,要么被按層拆分(流水線并行),二者都要求節(jié)點間進行高頻同步。特別是在流水線并行中,一個微批次必須嚴(yán)格按順序經(jīng)過每一層模型,導(dǎo)致只要某個節(jié)點延遲,就會阻塞整個訓(xùn)練流程。
Gensyn 針對這一問題提出 SkipPipe:一種支持跳躍執(zhí)行與動態(tài)路徑調(diào)度的高容錯流水線訓(xùn)練系統(tǒng)。SkipPipe 引入了「跳躍比例(skip ratio)」機制,允許某些微批數(shù)據(jù)在特定節(jié)點負(fù)載過高時跳過部分模型層,同時使用調(diào)度算法動態(tài)選擇當(dāng)前最優(yōu)計算路徑。實驗顯示,在地理分布廣、硬件差異大、帶寬受限的網(wǎng)絡(luò)環(huán)境下,SkipPipe 訓(xùn)練時間可降低高達 55%,并在高達 50% 節(jié)點故障率時仍能維持僅 7% 的損失,展現(xiàn)出極強的韌性和適應(yīng)性。
參與方式
?Gensyn 的公共測試網(wǎng)已于 2025 年 3 月 31 日上線,目前仍處于其技術(shù)路線圖中的初期階段(Phase 0),其功能重心集中在 RL Swarm 的部署與驗證上。RL Swarm 是 Gensyn 的第一個應(yīng)用場景,圍繞強化學(xué)習(xí)模型的協(xié)作訓(xùn)練進行設(shè)計。每一個參與節(jié)點都將其行為綁定至鏈上身份,貢獻過程被完整記錄,這為后續(xù)激勵分配和可信計算模型提供了驗證基礎(chǔ)。
Gensyn 的節(jié)點排名
早期測試階段的硬件門檻相對友好:Mac 用戶使用 M 系列芯片 即可運行,Windows 用戶則建議配備 3090 或 4090 等高性能 GPU,以及 16GB 以上內(nèi)存,即可部署本地 Swarm 節(jié)點。
系統(tǒng)運行后通過網(wǎng)頁登錄郵箱(推薦 Gmail)完成驗證流程,并可選擇是否綁定 HuggingFace 的 Access Token,以激活更完整的模型能力。
挑戰(zhàn)和展望
目前 Gensyn 項目最大的不確定性,在于其測試網(wǎng)尚未涵蓋所承諾的完整技術(shù)棧。Verde 與 SkipPipe 等關(guān)鍵模塊仍處于待集成狀態(tài),這也使外界對其架構(gòu)落地能力保持觀望。官方給出的解釋是:測試網(wǎng)將分階段推進,每一階段解鎖新的協(xié)議能力,優(yōu)先驗證基礎(chǔ)設(shè)施的穩(wěn)定性與擴展性。首階段以 RL Swarm 為起點,未來將逐步拓展至預(yù)訓(xùn)練、推理等核心場景,最終過渡至支持真實經(jīng)濟交易的主網(wǎng)部署。
盡管測試網(wǎng)啟動之初采用了相對保守的推進節(jié)奏,但值得關(guān)注的是,僅一個月后,Gensyn 即推出了支持更大規(guī)模模型與復(fù)雜數(shù)學(xué)任務(wù)的新 Swarm 測試任務(wù)。此舉在一定程度上回應(yīng)了外界對其開發(fā)節(jié)奏的質(zhì)疑,也展現(xiàn)出團隊在局部模塊推進上的執(zhí)行效率。
然而,問題也隨之而來:新版任務(wù)對硬件提出了極高門檻,推薦配置包括 A100、H100 等頂級 GPU(80GB 顯存),這對于中小節(jié)點而言幾乎不可達,也與 Gensyn 所強調(diào)的「開放接入、去中心化訓(xùn)練」的初衷形成一定張力。算力的集中化趨勢,若未得到有效引導(dǎo),或?qū)⒂绊懢W(wǎng)絡(luò)的公平性和去中心化治理的可持續(xù)性。
接下來,若 Verde 與 SkipPipe 能順利集成,將有助于提升協(xié)議的完整性與協(xié)同效率。但 Gensyn 能否在性能和去中心化之間找到真正的平衡,仍有待測試網(wǎng)更長時間、更廣范圍的實踐檢驗。眼下,它已初步顯現(xiàn)出潛力,也暴露出挑戰(zhàn),而這正是一個早期基礎(chǔ)設(shè)施項目最真實的狀態(tài)。
Bittensor:去中心化 AI 網(wǎng)絡(luò)的創(chuàng)新與發(fā)展
項目概述
Bittensor 是一個結(jié)合區(qū)塊鏈與人工智能的開創(chuàng)性項目,由 Jacob Steeves 和 Ala Shaabana 于 2019 年創(chuàng)立,旨在構(gòu)建「機器智能的市場經(jīng)濟」。兩位創(chuàng)始人均具備人工智能和分布式系統(tǒng)的深厚背景。項目白皮書的署名作者 Yuma Rao 被認(rèn)為是團隊核心技術(shù)顧問,為項目注入了密碼學(xué)與共識算法方面的專業(yè)視角。
該項目旨在通過區(qū)塊鏈協(xié)議整合全球算力資源,構(gòu)建一個不斷自我優(yōu)化的分布式神經(jīng)網(wǎng)絡(luò)生態(tài)系統(tǒng)。這一愿景將計算、數(shù)據(jù)、存儲和模型等數(shù)字資產(chǎn)轉(zhuǎn)化為智能價值流,構(gòu)建全新經(jīng)濟形態(tài),確保 AI 發(fā)展紅利的公平分配。有別于 OpenAI 等中心化平臺,Bittensor 建立了三大核心價值支柱:
- 打破數(shù)據(jù)孤島:利用 TAO 代幣激勵體系促進知識共享與模型貢獻
- 市場驅(qū)動的質(zhì)量評價:引入博弈論機制篩選優(yōu)質(zhì) AI 模型,實現(xiàn)優(yōu)勝劣汰
- 網(wǎng)絡(luò)效應(yīng)放大器:參與者增長與網(wǎng)絡(luò)價值呈指數(shù)級正相關(guān),形成良性循環(huán)
在投資布局方面,Polychain Capital 自 2019 年起孵化 Bittensor,目前持有價值約 2 億美元的 TAO 代幣;Dao5 持有約價值 5000 萬美元的 TAO,也是 Bittensor 生態(tài)系統(tǒng)的早期支持者。2024 年,Pantera Capital 和 Collab Currency 通過戰(zhàn)略投資進一步加碼。同年 8 月,灰度集團將 TAO 納入其去中心化 AI 基金,標(biāo)志著機構(gòu)投資者對項目價值的高度認(rèn)可和長期看好。
設(shè)計架構(gòu)與運行機制
網(wǎng)絡(luò)架構(gòu)
Bittensor 構(gòu)建了一個由四個協(xié)同層級組成的精密網(wǎng)絡(luò)架構(gòu):
- 區(qū)塊鏈層:基于 Substrate 框架搭建,作為網(wǎng)絡(luò)的信任基礎(chǔ),負(fù)責(zé)記錄狀態(tài)變化與代幣發(fā)行。系統(tǒng)每 12 秒生成新區(qū)塊并按規(guī)則發(fā)行 TAO 代幣,確保網(wǎng)絡(luò)共識與激勵分配。
- 神經(jīng)元層(Neuron):作為網(wǎng)絡(luò)的計算節(jié)點,神經(jīng)元運行各類 AI 模型提供智能服務(wù)。每個節(jié)點通過精心設(shè)計的配置文件明確聲明其服務(wù)類型與接口規(guī)范,實現(xiàn)功能模塊化和即插即用。
- 突觸層(Synapse):網(wǎng)絡(luò)的通信橋梁,動態(tài)優(yōu)化節(jié)點間連接權(quán)重,形成類神經(jīng)網(wǎng)絡(luò)結(jié)構(gòu),保障信息高效傳遞。突觸還內(nèi)置經(jīng)濟模型,神經(jīng)元間的互動與服務(wù)調(diào)用需支付 TAO 代幣,形成價值流轉(zhuǎn)閉環(huán)。
- 元圖層(Metagraph):作為系統(tǒng)的全局知識圖譜,持續(xù)監(jiān)測與評估各節(jié)點的貢獻價值,為整個網(wǎng)絡(luò)提供智能導(dǎo)向。元圖通過精確計算確定突觸權(quán)重,進而影響資源分配、獎勵機制以及節(jié)點在網(wǎng)絡(luò)中的影響力。
Bittensor 的網(wǎng)絡(luò)框架
Yuma 共識機制
網(wǎng)絡(luò)采用獨特的 Yuma 共識算法,每 72 分鐘完成一輪獎勵分配。驗證過程結(jié)合主觀評價與客觀度量:
- 人工評分:驗證者對礦工輸出質(zhì)量進行主觀評價
- Fisher 信息矩陣:客觀量化節(jié)點對網(wǎng)絡(luò)整體貢獻
這種「主觀 + 客觀」的混合機制,有效平衡了專業(yè)判斷與算法公正。
子網(wǎng)(Subnet)架構(gòu)和 dTAO 升級
每個子網(wǎng)專注于特定 AI 服務(wù)領(lǐng)域,如文本生成、圖像識別等,獨立運行但與主區(qū)塊鏈 subtensor 保持連接,形成高度靈活的模塊化擴展架構(gòu)。2025 年 2 月,Bittensor 完成了具有里程碑意義的 dTAO(Dynamic TAO)升級,這一系統(tǒng)將每個子網(wǎng)轉(zhuǎn)變?yōu)楠毩⒔?jīng)濟單元,通過市場需求信號智能調(diào)控資源分配。其核心創(chuàng)新是子網(wǎng)代幣(Alpha 代幣)機制:
- 運作原理:參與者通過質(zhì)押 TAO 獲取各子網(wǎng)發(fā)行的 Alpha 代幣,這些代幣代表了對特定子網(wǎng)服務(wù)的市場認(rèn)可與支持力度
- 資源分配邏輯:Alpha 代幣的市場價格作為衡量子網(wǎng)需求強度的關(guān)鍵指標(biāo),初始狀態(tài)下各子網(wǎng) Alpha 代幣價格一致,每個流動性池內(nèi)僅有 1 個 TAO 和 1 個 Alpha 代幣。隨著交易活躍度提升和流動性注入,Alpha 代幣價格動態(tài)調(diào)整,TAO 的分配按子網(wǎng)代幣價格占比智能分配,市場熱度高的子網(wǎng)獲得更多資源傾斜,實現(xiàn)真正的需求驅(qū)動型資源優(yōu)化配置
Bittensor 子網(wǎng)代幣排放分配
dTAO 升級顯著提升了生態(tài)活力與資源利用效率,子網(wǎng)代幣市場總市值已達 5 億美元,展現(xiàn)出強勁的增長動能。
Bittensor 子網(wǎng) alpha 代幣價值
生態(tài)進展與應(yīng)用案例
主網(wǎng)發(fā)展歷程
Bittensor 網(wǎng)絡(luò)經(jīng)歷了三個關(guān)鍵發(fā)展階段:
- 2021 年 1 月:主網(wǎng)正式啟動,奠定基礎(chǔ)架構(gòu)
- 2023 年 10 月:「Revolution」升級引入子網(wǎng)架構(gòu),實現(xiàn)功能模塊化
- 2025 年 2 月:完成 dTAO 升級,建立市場驅(qū)動的資源分配機制
子網(wǎng)生態(tài)呈爆發(fā)式增長:截至 2025 年 6 月,已有 119 個專業(yè)子網(wǎng),預(yù)計年內(nèi)可能突破 200 個。
Bittensor 子網(wǎng)數(shù)量
生態(tài)項目類型多元化,覆蓋 AI 代理(如 Tatsu)、預(yù)測市場(如 Bettensor)、DeFi 協(xié)議(如 TaoFi)等多個前沿領(lǐng)域,構(gòu)成了 AI 與金融深度融合的創(chuàng)新生態(tài)。
代表性子網(wǎng)生態(tài)項目
- TAOCAT:TAOCAT 是 Bittensor 生態(tài)中的原生 AI 代理,直接構(gòu)建在子網(wǎng)上,為用戶提供數(shù)據(jù)驅(qū)動的決策工具。利用 Subnet 19 的大語言模型、Subnet 42 的實時數(shù)據(jù)以及 Subnet 59 的 Agent Arena,提供市場洞察和決策支持。獲得 DWF Labs 投資,納入其 2000 萬美元 AI 代理基金,并在 binance alpha 上線。
- OpenKaito:由 Kaito 團隊在 Bittensor 上推出的子網(wǎng),旨在構(gòu)建去中心化的加密行業(yè)搜索引擎。目前已索引 5 億網(wǎng)頁資源,展示了去中心化 AI 處理海量數(shù)據(jù)的強大能力。與傳統(tǒng)搜索引擎相比,其核心優(yōu)勢在于減少商業(yè)利益干擾,提供更透明、中立的數(shù)據(jù)處理服務(wù),為 Web3 時代信息獲取提供新范式。
- Tensorplex Dojo:由 Tensorplex Labs 開發(fā)的 52 號子網(wǎng),專注于通過去中心化平臺眾包高質(zhì)量人類生成數(shù)據(jù)集,鼓勵用戶通過數(shù)據(jù)標(biāo)注賺取 TAO 代幣。2025 年 3 月,YZi Labs(原 Binance Labs)宣布投資 Tensorplex Labs,支持 Dojo 和 Backprop Finance 的發(fā)展。
- CreatorBid:運行在 Subnet 6,是一個結(jié)合 AI 和區(qū)塊鏈的創(chuàng)作平臺,與 Olas 和其他 GPU 網(wǎng)絡(luò)(如 io.net)集成,支持內(nèi)容創(chuàng)作者和 AI 模型開發(fā)。
技術(shù)與行業(yè)合作
Bittensor 在跨領(lǐng)域合作方面取得了突破性進展:
- 與 Hugging Face 建立深度模型集成通道,實現(xiàn) 50 個主流 AI 模型的鏈上無縫部署
- 2024 年攜手高性能 AI 芯片制造商 Cerebras 聯(lián)合發(fā)布 BTLM-3B 模型,累計下載量突破 16 萬次
- 2025 年 3 月與 DeFi 巨頭 Aave 達成戰(zhàn)略合作,共同探索 rsTAO 作為優(yōu)質(zhì)借貸抵押品的應(yīng)用場景
參與方式
Bittensor 設(shè)計了多元化的生態(tài)參與路徑,形成完整的價值創(chuàng)造與分配體系:
- 挖礦:部署礦工節(jié)點生產(chǎn)高質(zhì)量數(shù)字商品(如 AI 模型服務(wù)),根據(jù)貢獻質(zhì)量獲取 TAO 獎勵
- 驗證:運行驗證者節(jié)點評估礦工工作成果,維護網(wǎng)絡(luò)質(zhì)量標(biāo)準(zhǔn),獲取相應(yīng) TAO 激勵
- 質(zhì)押:持有并質(zhì)押 TAO 支持優(yōu)質(zhì)驗證者節(jié)點,根據(jù)驗證者表現(xiàn)獲取被動收益
- 開發(fā):利用 Bittensor SDK 和 CLI 工具構(gòu)建創(chuàng)新應(yīng)用、實用工具或全新子網(wǎng),積極參與生態(tài)建設(shè)
- 使用服務(wù):通過友好的客戶端應(yīng)用界面使用網(wǎng)絡(luò)提供的 AI 服務(wù),如文本生成或圖像識別
- 交易:參與子網(wǎng)資產(chǎn)化代幣的市場交易,捕捉潛在價值增長機會
子網(wǎng) alpha 代幣給參與者的分配
挑戰(zhàn)和展望
Bittensor 盡管展現(xiàn)出卓越潛力,但作為前沿技術(shù)探索,仍面臨多維度挑戰(zhàn)。在技術(shù)層面,分布式 AI 網(wǎng)絡(luò)面臨的安全威脅(如模型竊取與對抗攻擊)比中心化系統(tǒng)更為復(fù)雜,需持續(xù)優(yōu)化隱私計算與安全防護方案;經(jīng)濟模型方面,早期存在通脹壓力,子網(wǎng)代幣市場波動性較高,需警惕可能的投機泡沫;監(jiān)管環(huán)境上,雖然 SEC 已將 TAO 歸類為效用型代幣,但全球各地區(qū)監(jiān)管框架差異仍可能限制生態(tài)擴張;同時,面對資源雄厚的中心化 AI 平臺激烈競爭,去中心化解決方案需在用戶體驗和成本效益方面證明其長期競爭優(yōu)勢。
隨著 2025 年減半周期臨近,Bittensor 發(fā)展將聚焦四大戰(zhàn)略方向:進一步深化子網(wǎng)專業(yè)化分工,提升垂直領(lǐng)域應(yīng)用的服務(wù)質(zhì)量與性能;加速與 DeFi 生態(tài)的深度整合,借助新引入的 EVM 兼容性拓展智能合約應(yīng)用邊界;通過 dTAO 機制在未來 100 天內(nèi)平穩(wěn)將網(wǎng)絡(luò)治理權(quán)重從 TAO 逐步轉(zhuǎn)向 Alpha 代幣,推動治理去中心化進程;同時積極拓展與其他主流公鏈的互操作性,擴大生態(tài)邊界與應(yīng)用場景。這些協(xié)同發(fā)展的戰(zhàn)略舉措將共同推動 Bittensor 向「機器智能市場經(jīng)濟」的宏偉愿景穩(wěn)步邁進。
0G:以存儲為基礎(chǔ)的模塊化 AI 生態(tài)系統(tǒng)
項目概述
0G 是一個專為 AI 應(yīng)用設(shè)計的模塊化 Layer 1 公鏈,旨在為數(shù)據(jù)密集型和高計算需求場景提供高效、可靠的去中心化基礎(chǔ)設(shè)施。通過模塊化架構(gòu),0G 實現(xiàn)了共識、存儲、計算和數(shù)據(jù)可用性等核心功能的獨立優(yōu)化,支持動態(tài)擴展,能夠高效處理大規(guī)模 AI 推理和訓(xùn)練任務(wù)。
創(chuàng)始團隊由 Michael Heinrich(CEO,曾創(chuàng)立融資超 1 億美元的 Garten)、Ming Wu(CTO,微軟研究員,Conflux 聯(lián)合創(chuàng)始人)、Fan Long(Conflux 聯(lián)合創(chuàng)始人)和 Thomas Yao(CBO,Web3 投資者)組成,擁有 8 名計算機科學(xué)博士,成員背景涵蓋微軟、蘋果等,具備深厚的區(qū)塊鏈和 AI 技術(shù)經(jīng)驗。
融資方面,0G Labs 完成 3500 萬美元 Pre-seed 輪和 4000 萬美元 Seed 輪,總計 7500 萬美元,投資方包括 Hack VC、Delphi Ventures 和 Animoca Brands 等。此外,0G Foundation 獲得 2.5 億美元代幣購買承諾、3060 萬美元公開節(jié)點銷售和 8888 萬美元生態(tài)基金。
設(shè)計架構(gòu)
1、0G Chain
0G Chain 的目標(biāo)是打造最快的模塊化 AI 公鏈,其模塊化架構(gòu)支持對共識、執(zhí)行和存儲等關(guān)鍵組件進行獨立優(yōu)化,并集成了數(shù)據(jù)可用性網(wǎng)絡(luò)、分布式存儲網(wǎng)絡(luò)和 AI 計算網(wǎng)絡(luò)。這種設(shè)計為系統(tǒng)在應(yīng)對復(fù)雜的 AI 應(yīng)用場景時提供了卓越的性能和靈活性。以下是 0G Chain 的三大核心特色:
模塊化可擴展性(Modular Scalability for AI)
0G 采用橫向可擴展的架構(gòu),能夠高效處理大規(guī)模的數(shù)據(jù)工作流。其模塊化設(shè)計將數(shù)據(jù)可用性層(DA 層)與數(shù)據(jù)存儲層分離,為 AI 任務(wù)(如大規(guī)模訓(xùn)練或推理)的數(shù)據(jù)訪問和存儲提供了更高的性能和效率。
0G 共識(0G Consensus)
0G 的共識機制由多個獨立的共識網(wǎng)絡(luò)組成,這些網(wǎng)絡(luò)可以根據(jù)需求動態(tài)擴展。隨著數(shù)據(jù)量的指數(shù)級增長,系統(tǒng)吞吐量也能同步提升,支持從 1 個到數(shù)百甚至上千個網(wǎng)絡(luò)的擴展。這種分布式架構(gòu)不僅提升性能,還能確保系統(tǒng)的靈活性和可靠性。
共享質(zhì)押(Shared Staking)
驗證者需在以太坊主網(wǎng)上質(zhì)押資金,為所有參與的 0G 共識網(wǎng)絡(luò)提供安全保障。如果任意 0G 網(wǎng)絡(luò)發(fā)生可罰事件,驗證者在以太坊主網(wǎng)上的質(zhì)押資金將被削減。這一機制將以太坊主網(wǎng)的安全性擴展至所有 0G 共識網(wǎng)絡(luò),確保整個系統(tǒng)的安全性和穩(wěn)健性。
0G Chain 具備 EVM 兼容性,確保以太坊、Layer 2 Rollup 或其他鏈的開發(fā)者可以輕松集成 0G 的服務(wù)(如數(shù)據(jù)可用性和存儲),無需遷移。同時 0G 還在探索支持 Solana VM、Near VM 和比特幣兼容性,以便 AI 應(yīng)用擴展至更廣泛的用戶群體。
2、0G 存儲(0G Storage)
0G Storage 是一個高度優(yōu)化的分布式存儲系統(tǒng),專為去中心化應(yīng)用和數(shù)據(jù)密集型場景設(shè)計。其核心通過一種獨特的共識機制——隨機訪問證明(Proof of Random Access, PoRA),激勵礦工存儲和管理數(shù)據(jù),從而實現(xiàn)安全性、性能和公平性的平衡。
其架構(gòu)可以分為三層:
- 日志層(Log Layer):實現(xiàn)非結(jié)構(gòu)化數(shù)據(jù)的永久存儲,適用于歸檔或數(shù)據(jù)日志等用途。
- 鍵值存儲層(Key-Value Layer):管理可變的結(jié)構(gòu)化數(shù)據(jù),并支持權(quán)限控制,適合動態(tài)應(yīng)用場景。
- 事務(wù)處理層(Transaction Layer):支持多用戶的并發(fā)寫入,提升協(xié)作和數(shù)據(jù)處理效率。
隨機訪問證明(Proof of Random Access, PoRA)是 0G Storage 的關(guān)鍵機制,用于驗證礦工是否正確存儲了指定的數(shù)據(jù)塊。礦工會周期性地接受挑戰(zhàn),需提供有效的加密哈希作為證明,類似于工作量證明。為確保公平競爭,0G 對每次挖礦操作的數(shù)據(jù)范圍限制為 8 TB,避免大規(guī)模運營商壟斷資源,小規(guī)模礦工也能在公平環(huán)境中參與競爭。
隨機訪問證明示意圖
通過糾刪編碼技術(shù),0G Storage 將數(shù)據(jù)分割成多個冗余的小片段,并分布到不同的存儲節(jié)點上。這種設(shè)計確保即使部分節(jié)點下線或發(fā)生故障,數(shù)據(jù)仍然可以被完整恢復(fù),不僅顯著提升了數(shù)據(jù)的可用性和安全性,還使系統(tǒng)在處理大規(guī)模數(shù)據(jù)時表現(xiàn)出色。此外,數(shù)據(jù)存儲通過扇區(qū)級和數(shù)據(jù)塊級的精細(xì)化管理,不僅優(yōu)化了數(shù)據(jù)訪問效率,還增強了礦工在存儲網(wǎng)絡(luò)中的競爭力。
提交的數(shù)據(jù)以順序方式組織,這種順序被稱為數(shù)據(jù)流(data flow),可以被理解為日志條目列表或固定大小數(shù)據(jù)扇區(qū)的序列。在 0G 中,每一塊數(shù)據(jù)都可以通過一個通用的 偏移量(offset) 快速定位,從而實現(xiàn)高效的數(shù)據(jù)檢索和挑戰(zhàn)查詢。默認(rèn)情況下,0G 提供一個稱為 主數(shù)據(jù)流(main flow) 的通用數(shù)據(jù)流,用于處理大部分應(yīng)用場景。同時,系統(tǒng)還支持 專用數(shù)據(jù)流(specialized flows),這些數(shù)據(jù)流專門接受特定類別的日志條目,并提供獨立的連續(xù)地址空間,針對不同的應(yīng)用需求進行優(yōu)化。
通過以上設(shè)計, 0G Storage 能夠靈活適配多樣化的使用場景,同時保持高效的性能和管理能力,為需要處理大規(guī)模數(shù)據(jù)流的 AI x Web3 應(yīng)用提供強大的存儲支持。
3、0G 數(shù)據(jù)可用性(0G DA)
數(shù)據(jù)可用性(Data Availability, DA) 是 0G 的核心組件之一,旨在提供可訪問、可驗證且可檢索的數(shù)據(jù)。這一功能是去中心化 AI 基礎(chǔ)設(shè)施的關(guān)鍵,例如驗證訓(xùn)練或推理任務(wù)的結(jié)果,以滿足用戶需求并確保系統(tǒng)激勵機制的可靠性。0G DA 通過精心設(shè)計的架構(gòu)和驗證機制,實現(xiàn)了出色的可擴展性和安全性。
0G DA 的設(shè)計目標(biāo)是在保證安全性的同時提供極高的擴展性能。其工作流程主要分為兩個部分:
- 數(shù)據(jù)存儲通道(Data Storage Lane):數(shù)據(jù)通過糾刪編碼技術(shù)被分割成多個小片段(「數(shù)據(jù)塊」),并分布到 0G Storage 網(wǎng)絡(luò)中的存儲節(jié)點上。這種機制有效支持了大規(guī)模的數(shù)據(jù)傳輸,同時確保數(shù)據(jù)的冗余性與可恢復(fù)性。
- 數(shù)據(jù)發(fā)布通道(Data Publishing Lane):數(shù)據(jù)的可用性由 DA 節(jié)點通過聚合簽名進行驗證,并將結(jié)果提交到共識網(wǎng)絡(luò)。通過這種設(shè)計,數(shù)據(jù)發(fā)布僅需要處理少量關(guān)鍵數(shù)據(jù)流,避免了傳統(tǒng)廣播方式中的瓶頸問題,從而顯著提升了效率。
為了確保數(shù)據(jù)的安全性和高效性,0G DA 使用了一種基于隨機性的驗證方法,結(jié)合聚合簽名機制,形成了完整的驗證流程:
隨機構(gòu)建法定小組:通過可驗證隨機函數(shù)(Verifiable Random Function, VRF),共識系統(tǒng)從驗證者集合中隨機選出一組 DA 節(jié)點構(gòu)成法定小組(quorum)。這種隨機選擇方法理論上保證了法定小組的誠實性分布與整個驗證者集合一致,因此數(shù)據(jù)可用性客戶端無法與法定小組串通。
聚合簽名驗證:法定小組對存儲的數(shù)據(jù)塊進行抽樣驗證,并生成聚合簽名,將可用性證明提交到 0G 的共識網(wǎng)絡(luò)。這種聚合簽名方式極大提升了驗證效率,其性能比傳統(tǒng)以太坊快幾個數(shù)量級。
0G 的驗證流程
通過以上機制,0G DA 提供了一種高效、擴展性強且安全性有保障的數(shù)據(jù)可用性解決方案,為去中心化 AI 應(yīng)用提供了堅實的基礎(chǔ)支持。
4、0G 算力(0G Compute)
0G 計算網(wǎng)絡(luò)是一個去中心化框架,旨在為社區(qū)提供強大的 AI 計算能力。通過智能合約,算力提供商可以注冊他們提供的 AI 服務(wù)類型(例如模型推理),并為服務(wù)設(shè)定價格。用戶發(fā)送 AI 推理請求后,服務(wù)提供商會根據(jù)用戶余額的充足性決定是否響應(yīng),從而實現(xiàn)高效的算力分配。
為了進一步優(yōu)化交易成本和網(wǎng)絡(luò)效率,服務(wù)提供商能夠批量處理多個用戶請求。這種方式有效減少了鏈上結(jié)算的次數(shù),降低了頻繁交易帶來的資源消耗。同時,0G 計算網(wǎng)絡(luò)采用了零知識證明(ZK-Proofs)技術(shù),通過鏈下計算和鏈上驗證,大幅壓縮交易數(shù)據(jù),降低鏈上結(jié)算成本。結(jié)合 0G 的存儲模塊,其可擴展的鏈下數(shù)據(jù)管理機制能夠顯著減少存儲請求追蹤數(shù)據(jù)鍵的鏈上成本,同時提升存儲和檢索的效率。
目前,0G 的去中心化 AI 網(wǎng)絡(luò)主要提供 AI 推理服務(wù),并已在效率與成本優(yōu)化方面展現(xiàn)出優(yōu)勢。未來,0G 計劃進一步擴展其能力,實現(xiàn)從推理到訓(xùn)練等更多 AI 任務(wù)的全面去中心化,為用戶提供更加完善的解決方案。
生態(tài)發(fā)展
0G 的測試網(wǎng)目前已從 Newton v2 升級到 Galileo v3,根據(jù)官網(wǎng)數(shù)據(jù),具有 8000 多個驗證者。存儲網(wǎng)絡(luò)上有 1591 個活躍礦工,目前已處理了 43 萬多個上傳文件,提供了總計 450.72G 的存儲空間。
0G 項目在去中心化 AI 領(lǐng)域的影響力也隨著合作企業(yè)的增加和深入不斷擴大,根據(jù)官方數(shù)據(jù),目前已完成 450 多次集成,涵蓋 AI 算力、數(shù)據(jù)、模型、框架、infra、DePin 等全面領(lǐng)域。
0G 生態(tài)圖
同時,0G 基金會還推出了價值 8888 萬美元生態(tài)基金,用于支持 AI 相關(guān)項目的開發(fā),已涌現(xiàn)出以下一批原生應(yīng)用:
- zer0:AI 驅(qū)動的 DeFi 流動性解決方案,提供鏈上流動性優(yōu)化服務(wù)
- H1uman: 去中心化的 AI Agent 工廠,創(chuàng)建可擴展的 AI 集成工作流
- Leea Labs:多 AI Agent 的基礎(chǔ)設(shè)施,支持安全的多 Agent 系統(tǒng)部署
- Newmoney.AI: 智能 DeFi 的代理錢包,自動化管理投資和交易
- Unagi: AI 驅(qū)動的鏈上娛樂平臺,融合動漫和游戲的 Web3 體驗
- Rivalz:可驗證的 AI 預(yù)言機,為智能合約提供可信的 AI 數(shù)據(jù)訪問
- Avinasi Labs: 專注于長壽研究的 AI 項目
參與方式
普通用戶目前可以通過以下方式參與 0G 生態(tài):
- 參與 0G 測試網(wǎng)交互:0G 已推出 Testnet V3(Galileo v3),用戶可通過訪問官方測試網(wǎng)頁面(0G Testnet Guide)領(lǐng)取測試代幣,并在 0G 鏈上的 DApps 上進行交互體驗。
- 參與 Kaito 活動:0G 現(xiàn)已加入 Kaito 平臺的內(nèi)容創(chuàng)作活動,用戶可通過創(chuàng)作并分享與 0G 相關(guān)的優(yōu)質(zhì)內(nèi)容(如技術(shù)分析、生態(tài)進展或 AI 應(yīng)用案例)參與互動,贏取獎勵。
挑戰(zhàn)和展望
0G 在存儲領(lǐng)域展現(xiàn)了深厚的技術(shù)實力,為去中心化存儲提供了一套完整的模塊化解決方案,具備出色的可拓展性和經(jīng)濟性(存儲成本低至 10-11 美元 /TB)。同時,0G 通過數(shù)據(jù)可用性層(DA)解決了數(shù)據(jù)的可驗證性問題,為未來的大規(guī)模 AI 推理和訓(xùn)練任務(wù)奠定了堅實基礎(chǔ)。這一設(shè)計為去中心化 AI 在數(shù)據(jù)存儲層提供了強有力的支撐,并為開發(fā)者創(chuàng)造了優(yōu)化的存儲和檢索體驗。
在性能層面,0G 預(yù)計主網(wǎng) TPS 將提升至 3,000 到 10,000 的范圍,性能較此前實現(xiàn)了 10 倍增長,確保網(wǎng)絡(luò)能夠滿足 AI 推理和高頻交易等任務(wù)伴隨的高強度的計算需求。然而,在算力市場和模型方面,0G 仍需要長足的建設(shè)。目前,0G 的算力業(yè)務(wù)還局限于 AI 推理服務(wù),在模型訓(xùn)練任務(wù)的支持上,還需要更多的定制化設(shè)計和技術(shù)創(chuàng)新。作為 AI 發(fā)展的核心組成,模型和算力不僅是推動產(chǎn)品升級和大規(guī)模應(yīng)用的關(guān)鍵,也是 0G 實現(xiàn)其成為最大 AI Layer 1 生態(tài)系統(tǒng)目標(biāo)的必經(jīng)之路。
總結(jié)
當(dāng)前現(xiàn)狀:多元切入,面臨挑戰(zhàn)
回顧以上的六個 AI Layer1 項目,它們各自選擇了不同的切入點,圍繞 AI 資產(chǎn)、算力、模型、存儲等核心要素,探索去中心化 AI 基礎(chǔ)設(shè)施與生態(tài)構(gòu)建的路徑:
- Sentient:聚焦去中心化模型的研發(fā),推出 Dobby 系列,強調(diào)模型的可信、對齊與忠誠,底層鏈開發(fā)方面仍在持續(xù)推進階段,將實現(xiàn)模型與鏈的深度融合。
- Sahara AI:以 AI 資產(chǎn)所有權(quán)保護為核心,首階段著力于數(shù)據(jù)的確權(quán)與流通,致力于為 AI 生態(tài)提供可信的數(shù)據(jù)基礎(chǔ)。
- Ritual:圍繞去中心化算力在推理方面的高效落地方案,強化區(qū)塊鏈本身的功能,提升系統(tǒng)的靈活性和可擴展性,助力 AI 原生應(yīng)用發(fā)展。
- Gensyn:致力于解決去中心化模型訓(xùn)練難題,通過技術(shù)創(chuàng)新降低大規(guī)模分布式訓(xùn)練的成本,為 AI 算力共享與民主化提供可行路徑。
- Bittensor:較為成熟的子網(wǎng)平臺,通過代幣激勵和去中心化治理,率先構(gòu)建起豐富的開發(fā)者和應(yīng)用生態(tài),是去中心化 AI 的早期典范。
- 0G:以去中心化存儲為切入點,聚焦 AI 生態(tài)中數(shù)據(jù)存儲與管理難題,逐步拓展到更全面的 AI 基礎(chǔ)設(shè)施和應(yīng)用服務(wù)。
項目對比和總結(jié)
總體來看,這些項目既有技術(shù)路線的差異,也有生態(tài)戰(zhàn)略的互補,共同推動著鏈上去中心化 AI 生態(tài)的多元化發(fā)展。但不可否認(rèn)的是,整個賽道仍處于早期探索階段。雖然許多前瞻性的愿景和藍圖被提出,但實際開發(fā)進度和生態(tài)體系建設(shè)仍需要時間沉淀,許多關(guān)鍵基礎(chǔ)設(shè)施和創(chuàng)新型應(yīng)用也有待落地。
如何吸引和激勵更多的算力、存儲等基礎(chǔ)節(jié)點加入網(wǎng)絡(luò),是當(dāng)下亟需突破的核心問題。正如比特幣網(wǎng)絡(luò)經(jīng)歷了長達十幾年的發(fā)展,才逐步獲得主流市場的認(rèn)可,去中心化 AI 網(wǎng)絡(luò)也需要持續(xù)擴展節(jié)點規(guī)模,才能滿足海量 AI 任務(wù)對算力的巨大需求。也只有當(dāng)網(wǎng)絡(luò)中的算力、存儲等資源達到一定的豐富度,才能有效降低使用成本,并推動算力的普惠化,最終實現(xiàn)去中心化 AI 的宏偉愿景。
此外,鏈上 AI 應(yīng)用在創(chuàng)新性方面依然存在不足。目前不少產(chǎn)品仍以 Web2 模式為藍本進行簡單遷移,缺乏與區(qū)塊鏈原生機制深度融合的創(chuàng)新設(shè)計,未能充分展現(xiàn)去中心化 AI 的獨特優(yōu)勢。這些現(xiàn)實挑戰(zhàn)提醒我們,行業(yè)的持續(xù)發(fā)展不僅需要技術(shù)層面的突破,更離不開用戶體驗的提升和整個生態(tài)系統(tǒng)的不斷完善。
持續(xù)發(fā)展:AI Layer1 和 DeAI 優(yōu)質(zhì)項目不斷涌現(xiàn)
除了以上我們深入介紹的項目外,在時代的大趨勢下,還有不少新的 AI Layer1 和 DeAI 值得我們關(guān)注。(由于篇幅限制,這里先進行精要介紹,可以關(guān)注我們持續(xù)跟蹤更多 AI 賽道的投研內(nèi)容)
Kite AI
Kite AI 基于其核心共識機制「Proof of Attributed Intelligence」(PoAI),構(gòu)建了一條 EVM 兼容的 Layer 1 區(qū)塊鏈,致力于打造一個公平的 AI 生態(tài)系統(tǒng),旨在確保數(shù)據(jù)提供者、模型開發(fā)者以及 AI Agent 創(chuàng)作者在 AI 價值創(chuàng)造中的貢獻能夠被透明記錄并獲得公正回報,從而打破由少數(shù)科技巨頭壟斷的 AI 資源格局。目前 Kite AI 將發(fā)展重點聚焦在 C 端應(yīng)用層,并通過子網(wǎng)架構(gòu)和交易市場等形式,保障 AI 資產(chǎn)的開發(fā)、確權(quán)和變現(xiàn)。
Story
圍繞開放知識產(chǎn)權(quán)(IP)打造的 AI Layer 1,為創(chuàng)作者和開發(fā)者提供一套全流程工具,幫助他們在鏈上注冊、追蹤、授權(quán)、管理和變現(xiàn)各種內(nèi)容 IP,無論是視頻、音頻、文本還是 AI 作品。Story 允許用戶將原創(chuàng)內(nèi)容鑄造成 NFT,并內(nèi)置靈活授權(quán)和分潤機制,讓用戶可以進行二次創(chuàng)作和商業(yè)合作,同時確保所有權(quán)和收益分配透明可查。
Vana
Vana 是專為「用戶數(shù)據(jù)變現(xiàn)與 AI 訓(xùn)練」構(gòu)建的新一代數(shù)據(jù)底層 AI Layer 1。它跳出了大公司壟斷數(shù)據(jù)的限制,讓個人能真正擁有、管理并分享自己的數(shù)據(jù)。用戶可通過「數(shù)據(jù) DAO」 (用戶共管、分享并獲益于 AI 訓(xùn)練數(shù)據(jù)的去中心化自治組織),在保留數(shù)據(jù)所有權(quán)的前提下,將社交、健康、消費等數(shù)據(jù)匯集后用于 AI 訓(xùn)練,并參與分紅。此外,Vana 在設(shè)計上重視隱私與安全,采用隱私計算和加密驗證技術(shù)保護用戶的數(shù)據(jù)安全。
Nillion
Nillion 是一個專注于數(shù)據(jù)隱私和安全計算的「盲計算網(wǎng)絡(luò)」,為開發(fā)者和企業(yè)提供了一套隱私增強技術(shù)(如多方安全計算 MPC、同態(tài)加密、零知識證明等),可實現(xiàn)在不解密原始數(shù)據(jù)的前提下進行數(shù)據(jù)的存儲、共享和復(fù)雜計算。這讓諸如 AI、去中心化金融(DeFi)、醫(yī)療、個性化應(yīng)用等場景能夠更安全地處理高價值和敏感信息,而不必?fù)?dān)心數(shù)據(jù)泄露風(fēng)險。目前,Nillion 生態(tài)已經(jīng)支持包括 AI 隱私計算、個性化智能體、私有知識庫等眾多創(chuàng)新應(yīng)用,吸引了 Virtuals、NEAR、Aptos、Arbitrum 等合作伙伴。
Mira Network
Mira Network 是一個專為 AI 輸出做「去中心化驗證」的創(chuàng)新網(wǎng)絡(luò),旨在為自主 AI 打造可信賴的驗證層。Mira 的核心創(chuàng)新采用集成評估技術(shù)在后臺同時運行多個不同的語言模型,將 AI 生成的結(jié)果細(xì)分為具體斷言后交由分布式模型節(jié)點獨立驗證,只有當(dāng)絕大多數(shù)模型達成共識并認(rèn)定內(nèi)容為「事實」時才輸出給用戶。通過這種多模型共識機制,Mira 將單一模型 25% 的幻覺率顯著降低至僅 3%,相當(dāng)于錯誤率降低 90% 以上。Mira 摒棄了對中心化大機構(gòu)或單一大模型的依賴,采用分布式節(jié)點和經(jīng)濟激勵機制,成為眾多 Web2 和 Web3 AI 應(yīng)用的可驗證基礎(chǔ)設(shè)施層,真正實現(xiàn)從 AI 副駕駛,向具備自主決策能力且可信任的 AI 系統(tǒng)躍遷。??
Prime Intellect
Prime Intellect 是一個聚焦在去中心化 AI 訓(xùn)練和算力基礎(chǔ)設(shè)施的平臺,致力于整合全球計算資源,推動開源 AI 模型的協(xié)同訓(xùn)練。其核心架構(gòu)包括點對點的算力租賃市場和開放的訓(xùn)練協(xié)議,允許任何人將閑置硬件貢獻到網(wǎng)絡(luò),用于大模型訓(xùn)練與推理,從而緩解了傳統(tǒng) AI 高度集中、門檻高且資源浪費的問題。同時,Prime Intellect 開發(fā)了開源分布式訓(xùn)練框架(如 OpenDiLoco),支持?jǐn)?shù)十億參數(shù)大模型的跨地域高效訓(xùn)練,并在算法創(chuàng)新與特殊賽道深耕,比如基于元基因組的 METAGENE-1 模型和面向數(shù)學(xué)推理的 INTELLECT-MATH 項目。2025 年,Prime Intellect 還推出了 SYNTHETIC-1 計劃,利用眾包與強化學(xué)習(xí),打造全球最大開源推理與數(shù)學(xué)代碼驗證數(shù)據(jù)集。
未來展望:開放與共贏的去中心化 AI
盡管挑戰(zhàn)重重,鏈上去中心化 AI 依然擁有廣闊的發(fā)展前景和變革潛力。隨著底層技術(shù)逐步成熟、各項目持續(xù)兌現(xiàn)承諾,去中心化 AI 的獨特優(yōu)勢有望日益凸顯,AI Layer1 們將有望實現(xiàn)以下愿景:
- 算力、數(shù)據(jù)和模型的民主化共享,打破技術(shù)寡頭壟斷,讓全球個體、企業(yè)和組織都能無門檻參與 AI 創(chuàng)新。
- AI 資產(chǎn)的確權(quán)流通與可信治理,推動數(shù)據(jù)、模型等核心資產(chǎn)在鏈上自由流通和交易,保障所有者的收益,形成健康的開放生態(tài)。
- AI 輸出更可信、可追溯、可對齊,為 AI 的安全、可控發(fā)展提供堅實支撐,有效降低「AI 作惡」的風(fēng)險。
- 行業(yè)應(yīng)用的普惠落地,在金融、醫(yī)療、教育、內(nèi)容創(chuàng)作等領(lǐng)域釋放 AI 的巨大價值,讓 AI 以去中心化方式真正造福社會。
隨著越來越多的 AI Layer1 項目不斷推進,我們期待去中心化 AI 的目標(biāo)能夠早日實現(xiàn),也希望有更多開發(fā)者、創(chuàng)新者和參與者加入,共同構(gòu)建一個更加開放、多元和可持續(xù)的 AI 生態(tài)。
以上就是AI Layer1是什么?有哪些項目?六個AI Layer1代表項目詳細(xì)介紹的詳細(xì)內(nèi)容,更多關(guān)于AI Layer1項目介紹的資料請關(guān)注腳本之家其它相關(guān)文章!
你可能感興趣的文章
-
什么是AI Layer1?AI Layer1項目盤點/未來展望與投資價值
今天腳本之家小編將給大家深入介紹AI Layer1的概念,詳細(xì)探討其主要項目、主流技術(shù)架構(gòu),以及未來的發(fā)展趨勢,同時,我們還將分析AI Layer1在實現(xiàn)過程中可能面臨的挑戰(zhàn),并…
2025-04-18 -
五大AI Layer1項目深度解析:Bittensor/Vana/Kite AI/Nillion和Sahara
隨著AI技術(shù)的飛速發(fā)展,傳統(tǒng)區(qū)塊鏈架構(gòu)已無法滿足AI應(yīng)用所需的高性能計算和復(fù)雜數(shù)據(jù)處理需求,這促使了專為AI優(yōu)化的Layer 1區(qū)塊鏈平臺的興起,它們在技術(shù)架構(gòu)、應(yīng)用場景和…
2025-03-13