OpenLedger構建可支付AI:OP Stack+EigenDA底座驅動數據與模型經濟

OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟

一、引言 | Crypto AI 的模型層躍遷

數據、模型與算力是 AI 基礎設施的三大核心要素,類比燃料(數據)、引擎(模型)、能源(算力)缺一不可。與傳統 AI 行業的基礎設施演進路徑類似,Crypto AI 領域也經歷了相似的階段。2024 年初,市場一度被去中心化 GPU 項目所主導 (某計算平台、某渲染平台、某網路等 ),普遍強調「拼算力」的粗放式增長邏輯。而進入 2025 年後,行業關注點逐步上移至模型與數據層,標志着 Crypto AI 正從底層資源競爭過渡到更具可持續性與應用價值的中層構建。

OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟

通用大模型(LLM)vs 特化模型(SLM)

傳統的大型語言模型(LLM)訓練高度依賴大規模數據集與復雜的分布式架構,參數規模動輒 70B~500B,訓練一次的成本常高達數百萬美元。而 SLM(Specialized Language Model)作爲一種可復用基礎模型的輕量微調範式,通常基於 LLaMA、Mistral、DeepSeek 等開源模型,結合少量高質量專業數據及 LoRA 等技術,快速構建具備特定領域知識的專家模型,顯著降低訓練成本與技術門檻。

值得注意的是,SLM 並不會被集成進 LLM 權重中,而是通過 Agent 架構調用、插件系統動態路由、LoRA 模塊熱插拔、RAG(檢索增強生成)等方式與 LLM 協作運行。這一架構既保留了 LLM 的廣覆蓋能力,又通過精調模塊增強了專業表現,形成了高度靈活的組合式智能系統。

Crypto AI 在模型層的價值與邊界

Crypto AI 項目本質上難以直接提升大語言模型(LLM)的核心能力,核心原因在於

  • 技術門檻過高:訓練 Foundation Model 所需的數據規模、算力資源與工程能力極其龐大,目前僅有美國(某公司等)與中國(某公司等)等科技巨頭具備相應能力。
  • 開源生態局限:雖然主流基礎模型如 LLaMA、Mixtral 已開源,但真正推動模型突破的關鍵依然集中於科研機構與閉源工程體系,鏈上項目在核心模型層的參與空間有限。

然而,在開源基礎模型之上,Crypto AI 項目仍可通過精調特化語言模型(SLM),並結合 Web3 的可驗證性與激勵機制實現價值延伸。作爲 AI 產業鏈的「週邊接口層」,體現於兩個核心方向:

  • 可信驗證層:通過鏈上記錄模型生成路徑、數據貢獻與使用情況,增強 AI 輸出的可追溯性與抗篡改能力。
  • 激勵機制: 借助原生 Token,用於激勵數據上傳、模型調用、智能體(Agent)執行等行爲,構建模型訓練與服務的正向循環。

AI 模型類型分類與 區塊鏈適用性分析

由此可見,模型類 Crypto AI 項目的可行落點主要集中在小型 SLM 的輕量化精調、RAG 架構的鏈上數據接入與驗證、以及 Edge 模型的本地部署與激勵上。結合區塊鏈的可驗證性與代幣機制,Crypto 能爲這些中低資源模型場景提供特有價值,形成 AI「接口層」的差異化價值。

基於數據與模型的區塊鏈 AI 鏈,可對每一條數據和模型的貢獻來源進行清晰、不可篡改的上鏈記錄,顯著提升數據可信度與模型訓練的可溯性。同時,通過智能合約機制,在數據或模型被調用時自動觸發獎勵分發,將 AI 行爲轉化爲可計量、可交易的代幣化價值,構建可持續的激勵體系。此外,社區用戶還可通過代幣投票評估模型性能、參與規則制定與迭代,完善去中心化治理架構。

OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟

二、項目概述 | OpenLedger 的 AI 鏈願景

OpenLedger 是當前市場上爲數不多專注於數據與模型激勵機制的區塊鏈 AI 項目。它率先提出「Payable AI」的概念,旨在構建一個公平、透明且可組合的 AI 運行環境,激勵數據貢獻者、模型開發者與 AI 應用構建者在同一平台協作,並根據實際貢獻獲得鏈上收益。

OpenLedger 提供了從「數據提供」到「模型部署」再到「調用分潤」的全鏈條閉環,其核心模塊包括:

  • Model Factory:無需編程,即可基於開源 LLM 使用 LoRA 微調訓練並部署定制模型;
  • OpenLoRA:支持千模型共存,按需動態加載,顯著降低部署成本;
  • PoA(Proof of Attribution):通過鏈上調用記錄實現貢獻度量與獎勵分配;
  • Datanets:面向垂類場景的結構化數據網路,由社區協作建設與驗證;
  • 模型提案平台(Model Proposal Platform):可組合、可調用、可支付的鏈上模型市場。

通過以上模塊,OpenLedger 構建了一個數據驅動、模型可組合的「智能體經濟基礎設施」,推動 AI 價值鏈的鏈上化。

OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟

而在區塊鏈技術採用上,OpenLedger 以 OP Stack + EigenDA 爲底座,爲 AI 模型構建了高性能、低成本、可驗證的數據與合約運行環境。

  • 基於 OP Stack 構建: 基於 Optimism 技術棧,支持高吞吐與低費用執行;
  • 在以太坊主網上結算: 確保交易安全性與資產完整性;
  • EVM 兼容: 方便開發者基於 Solidity 快速部署與擴展;
  • EigenDA 提供數據可用性支持:顯著降低存儲成本,保障數據可驗證性。

相比於某公鏈這類更偏底層、主打數據主權與 「AI Agents on BOS」 架構的通用型 AI 鏈,OpenLedger 更專注於構建面向數據與模型激勵的 AI 專用鏈,致力於讓模型的開發與調用在鏈上實現可追溯、可組合與可持續的價值閉環。它是 Web3 世界中的模型激勵基礎設施,結合某模型托管平台式的模型托管、某支付平台式的使用計費與某基礎設施服務式的鏈上可組合接口,推動「模型即資產」的實現路徑。

三、OpenLedger 的核心組件與技術架構

3.1 Model Factory,無需代碼模型工廠

ModelFactory 是 OpenLedger 生態下的一個大型語言模型(LLM)微調平台。與傳統微調框架不同,ModelFactory 提供純圖形化界面操作,無需命令行工具或 API 集成。用戶可以基於在 OpenLedger 上完成授權與審核的數據集,對模型進行微調。實現了數據授權、模型訓練與部署的一體化工作流,其核心流程包括:

  • 數據訪問控制: 用戶提交數據請求,提供者審核批準,數據自動接入模型訓練界面。
  • 模型選擇與配置: 支持主流 LLM(如 LLaMA、Mistral),通過 GUI 配置超參數。
  • 輕量化微調: 內置 LoRA / QLoRA 引擎,實時展示訓練進度。
  • 模型評估與部署: 內建評估工具,支持導出部署或生態共享調用。
  • 交互驗證接口: 提供聊天式界面,便於直接測試模型問答能力。
  • RAG 生成溯源: 回答帶來源引用,增強信任與可審計性。

Model Factory 系統架構包含六大模塊,貫穿身分認證、數據權限、模型微調、評估部署與 RAG 溯源,打造安全可控、實時交互、可持續變現的一體化模型服務平台。

OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟

ModelFactory 目前支持的大語言模型能力簡表如下:

  • LLaMA 系列:生態最廣、社區活躍、通用性能強,是當前最主流的開源基礎模型之一。
  • Mistral:架構高效、推理性能極佳,適合部署靈活、資源有限的場景。
  • Qwen:某公司出品,中文任務表現優異,綜合能力強,適合國內開發者首選。
  • ChatGLM:中文對話效果突出,適合垂類客服和本地化場景。
  • Deepseek:在代碼生成和數學推理上表現優越,適用於智能開發輔助工具。
  • Gemma:某公司推出的輕量模型,結構清晰,易於快速上手與實驗。
  • Falcon:曾是性能標杆,適合基礎研究或對比測試,但社區活躍度已減。
  • BLOOM:多語言支持較強,但推理性能偏弱,適合語言覆蓋型研究。
  • GPT-2:經典早期模型,僅適合教學和驗證用途,不建議實際部署使用。

雖然 OpenLedger 的模型組合並未包含最新的高性能 MoE 模型或多模態模型,但其策略並不落伍,而是基於鏈上部署的現實約束(推理成本、RAG 適配、LoRA 兼容、EVM 環境)所做出的「實用優先」配置。

Model Factory 作爲無代碼工具鏈,所有模型都內置了貢獻證明機制,確保數據貢獻者和模型開發者的權益,具有低門檻、可變現與可組合性的優點,與傳統模型開發工具相比較:

  • 對於開發者:提供模型孵化、分發、收入的完整路徑;
  • 對於平台:形成模型資產流通與組合生態;
  • 對於應用者:可以像調用 API 一樣組合使用模型或 Agent。

OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟

3.2 OpenLoRA,微調模型的鏈上資產化

LoRA(Low-Rank Adaptation)是一種高效的參數微調方法,通過在預訓練大模型中插入「低秩矩陣」來學習新任務,而不修改原模型參數,從而大幅降低訓練成本和存儲需求。傳統大語言模型(如 LLaMA、GPT-3)通常擁有數十億甚至千億參數。要將它們用於特定任務(如法律問答、醫療問診),就需要進行微調(fine-tuning)。LoRA 的核心策略是:「凍結原始大模型的參數,只訓練插入的新參數矩陣。」,其參數高效、訓練快速、部署靈活,是當前最適合 Web3 模型部署與組合調用的主流微調方法。

OpenLoRA 是 OpenLedger 構建的一套專爲多模型部署與資源共享而設計的輕量級推理框架。它核心目標是解決當前 AI 模型部署中常見的高成本、低復用、GPU 資源浪費等問題,推動「可支付 AI」(Payable AI)的落地執行。

OpenLoRA 系統架構核心組件,基於模塊化設

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 6
  • 分享
留言
0/400
冲浪鲸鱼饲养员vip
· 5小時前
抄作业写的真nice
回復0
GateUser-c802f0e8vip
· 5小時前
智能体经济啥时候能落地啊?
回復0
ShadowStakervip
· 5小時前
meh... 又一个试图用花哨的流行词解决人工智能的L2。老实说,先给我看看mev统计数据。
查看原文回復0
PrivateKeyParanoiavip
· 6小時前
智能体经济,真就VC口水呗
回復0
GasWasterrvip
· 6小時前
又到薅羊毛时间惹
回復0
Ser_This_Is_A_Casinovip
· 6小時前
3啊 就等着要起飞了!
回復0
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)