數據、模型與算力是 AI 基礎設施的三大核心要素,類比燃料(數據)、引擎(模型)、能源(算力)缺一不可。與傳統 AI 行業的基礎設施演進路徑類似,Crypto AI 領域也經歷了相似的階段。2024 年初,市場一度被去中心化 GPU 項目所主導 (某計算平台、某渲染平台、某網路等 ),普遍強調「拼算力」的粗放式增長邏輯。而進入 2025 年後,行業關注點逐步上移至模型與數據層,標志着 Crypto AI 正從底層資源競爭過渡到更具可持續性與應用價值的中層構建。
通用大模型(LLM)vs 特化模型(SLM)
傳統的大型語言模型(LLM)訓練高度依賴大規模數據集與復雜的分布式架構,參數規模動輒 70B~500B,訓練一次的成本常高達數百萬美元。而 SLM(Specialized Language Model)作爲一種可復用基礎模型的輕量微調範式,通常基於 LLaMA、Mistral、DeepSeek 等開源模型,結合少量高質量專業數據及 LoRA 等技術,快速構建具備特定領域知識的專家模型,顯著降低訓練成本與技術門檻。
基於數據與模型的區塊鏈 AI 鏈,可對每一條數據和模型的貢獻來源進行清晰、不可篡改的上鏈記錄,顯著提升數據可信度與模型訓練的可溯性。同時,通過智能合約機制,在數據或模型被調用時自動觸發獎勵分發,將 AI 行爲轉化爲可計量、可交易的代幣化價值,構建可持續的激勵體系。此外,社區用戶還可通過代幣投票評估模型性能、參與規則制定與迭代,完善去中心化治理架構。
二、項目概述 | OpenLedger 的 AI 鏈願景
OpenLedger 是當前市場上爲數不多專注於數據與模型激勵機制的區塊鏈 AI 項目。它率先提出「Payable AI」的概念,旨在構建一個公平、透明且可組合的 AI 運行環境,激勵數據貢獻者、模型開發者與 AI 應用構建者在同一平台協作,並根據實際貢獻獲得鏈上收益。
通過以上模塊,OpenLedger 構建了一個數據驅動、模型可組合的「智能體經濟基礎設施」,推動 AI 價值鏈的鏈上化。
而在區塊鏈技術採用上,OpenLedger 以 OP Stack + EigenDA 爲底座,爲 AI 模型構建了高性能、低成本、可驗證的數據與合約運行環境。
基於 OP Stack 構建: 基於 Optimism 技術棧,支持高吞吐與低費用執行;
在以太坊主網上結算: 確保交易安全性與資產完整性;
EVM 兼容: 方便開發者基於 Solidity 快速部署與擴展;
EigenDA 提供數據可用性支持:顯著降低存儲成本,保障數據可驗證性。
相比於某公鏈這類更偏底層、主打數據主權與 「AI Agents on BOS」 架構的通用型 AI 鏈,OpenLedger 更專注於構建面向數據與模型激勵的 AI 專用鏈,致力於讓模型的開發與調用在鏈上實現可追溯、可組合與可持續的價值閉環。它是 Web3 世界中的模型激勵基礎設施,結合某模型托管平台式的模型托管、某支付平台式的使用計費與某基礎設施服務式的鏈上可組合接口,推動「模型即資產」的實現路徑。
三、OpenLedger 的核心組件與技術架構
3.1 Model Factory,無需代碼模型工廠
ModelFactory 是 OpenLedger 生態下的一個大型語言模型(LLM)微調平台。與傳統微調框架不同,ModelFactory 提供純圖形化界面操作,無需命令行工具或 API 集成。用戶可以基於在 OpenLedger 上完成授權與審核的數據集,對模型進行微調。實現了數據授權、模型訓練與部署的一體化工作流,其核心流程包括:
數據訪問控制: 用戶提交數據請求,提供者審核批準,數據自動接入模型訓練界面。
模型選擇與配置: 支持主流 LLM(如 LLaMA、Mistral),通過 GUI 配置超參數。
輕量化微調: 內置 LoRA / QLoRA 引擎,實時展示訓練進度。
模型評估與部署: 內建評估工具,支持導出部署或生態共享調用。
交互驗證接口: 提供聊天式界面,便於直接測試模型問答能力。
RAG 生成溯源: 回答帶來源引用,增強信任與可審計性。
Model Factory 系統架構包含六大模塊,貫穿身分認證、數據權限、模型微調、評估部署與 RAG 溯源,打造安全可控、實時交互、可持續變現的一體化模型服務平台。
OpenLedger構建可支付AI:OP Stack+EigenDA底座驅動數據與模型經濟
OpenLedger深度研報:以OP Stack+EigenDA爲底座,構建一個數據驅動、模型可組合的智能體經濟
一、引言 | Crypto AI 的模型層躍遷
數據、模型與算力是 AI 基礎設施的三大核心要素,類比燃料(數據)、引擎(模型)、能源(算力)缺一不可。與傳統 AI 行業的基礎設施演進路徑類似,Crypto AI 領域也經歷了相似的階段。2024 年初,市場一度被去中心化 GPU 項目所主導 (某計算平台、某渲染平台、某網路等 ),普遍強調「拼算力」的粗放式增長邏輯。而進入 2025 年後,行業關注點逐步上移至模型與數據層,標志着 Crypto AI 正從底層資源競爭過渡到更具可持續性與應用價值的中層構建。
通用大模型(LLM)vs 特化模型(SLM)
傳統的大型語言模型(LLM)訓練高度依賴大規模數據集與復雜的分布式架構,參數規模動輒 70B~500B,訓練一次的成本常高達數百萬美元。而 SLM(Specialized Language Model)作爲一種可復用基礎模型的輕量微調範式,通常基於 LLaMA、Mistral、DeepSeek 等開源模型,結合少量高質量專業數據及 LoRA 等技術,快速構建具備特定領域知識的專家模型,顯著降低訓練成本與技術門檻。
值得注意的是,SLM 並不會被集成進 LLM 權重中,而是通過 Agent 架構調用、插件系統動態路由、LoRA 模塊熱插拔、RAG(檢索增強生成)等方式與 LLM 協作運行。這一架構既保留了 LLM 的廣覆蓋能力,又通過精調模塊增強了專業表現,形成了高度靈活的組合式智能系統。
Crypto AI 在模型層的價值與邊界
Crypto AI 項目本質上難以直接提升大語言模型(LLM)的核心能力,核心原因在於
然而,在開源基礎模型之上,Crypto AI 項目仍可通過精調特化語言模型(SLM),並結合 Web3 的可驗證性與激勵機制實現價值延伸。作爲 AI 產業鏈的「週邊接口層」,體現於兩個核心方向:
AI 模型類型分類與 區塊鏈適用性分析
由此可見,模型類 Crypto AI 項目的可行落點主要集中在小型 SLM 的輕量化精調、RAG 架構的鏈上數據接入與驗證、以及 Edge 模型的本地部署與激勵上。結合區塊鏈的可驗證性與代幣機制,Crypto 能爲這些中低資源模型場景提供特有價值,形成 AI「接口層」的差異化價值。
基於數據與模型的區塊鏈 AI 鏈,可對每一條數據和模型的貢獻來源進行清晰、不可篡改的上鏈記錄,顯著提升數據可信度與模型訓練的可溯性。同時,通過智能合約機制,在數據或模型被調用時自動觸發獎勵分發,將 AI 行爲轉化爲可計量、可交易的代幣化價值,構建可持續的激勵體系。此外,社區用戶還可通過代幣投票評估模型性能、參與規則制定與迭代,完善去中心化治理架構。
二、項目概述 | OpenLedger 的 AI 鏈願景
OpenLedger 是當前市場上爲數不多專注於數據與模型激勵機制的區塊鏈 AI 項目。它率先提出「Payable AI」的概念,旨在構建一個公平、透明且可組合的 AI 運行環境,激勵數據貢獻者、模型開發者與 AI 應用構建者在同一平台協作,並根據實際貢獻獲得鏈上收益。
OpenLedger 提供了從「數據提供」到「模型部署」再到「調用分潤」的全鏈條閉環,其核心模塊包括:
通過以上模塊,OpenLedger 構建了一個數據驅動、模型可組合的「智能體經濟基礎設施」,推動 AI 價值鏈的鏈上化。
而在區塊鏈技術採用上,OpenLedger 以 OP Stack + EigenDA 爲底座,爲 AI 模型構建了高性能、低成本、可驗證的數據與合約運行環境。
相比於某公鏈這類更偏底層、主打數據主權與 「AI Agents on BOS」 架構的通用型 AI 鏈,OpenLedger 更專注於構建面向數據與模型激勵的 AI 專用鏈,致力於讓模型的開發與調用在鏈上實現可追溯、可組合與可持續的價值閉環。它是 Web3 世界中的模型激勵基礎設施,結合某模型托管平台式的模型托管、某支付平台式的使用計費與某基礎設施服務式的鏈上可組合接口,推動「模型即資產」的實現路徑。
三、OpenLedger 的核心組件與技術架構
3.1 Model Factory,無需代碼模型工廠
ModelFactory 是 OpenLedger 生態下的一個大型語言模型(LLM)微調平台。與傳統微調框架不同,ModelFactory 提供純圖形化界面操作,無需命令行工具或 API 集成。用戶可以基於在 OpenLedger 上完成授權與審核的數據集,對模型進行微調。實現了數據授權、模型訓練與部署的一體化工作流,其核心流程包括:
Model Factory 系統架構包含六大模塊,貫穿身分認證、數據權限、模型微調、評估部署與 RAG 溯源,打造安全可控、實時交互、可持續變現的一體化模型服務平台。
ModelFactory 目前支持的大語言模型能力簡表如下:
雖然 OpenLedger 的模型組合並未包含最新的高性能 MoE 模型或多模態模型,但其策略並不落伍,而是基於鏈上部署的現實約束(推理成本、RAG 適配、LoRA 兼容、EVM 環境)所做出的「實用優先」配置。
Model Factory 作爲無代碼工具鏈,所有模型都內置了貢獻證明機制,確保數據貢獻者和模型開發者的權益,具有低門檻、可變現與可組合性的優點,與傳統模型開發工具相比較:
3.2 OpenLoRA,微調模型的鏈上資產化
LoRA(Low-Rank Adaptation)是一種高效的參數微調方法,通過在預訓練大模型中插入「低秩矩陣」來學習新任務,而不修改原模型參數,從而大幅降低訓練成本和存儲需求。傳統大語言模型(如 LLaMA、GPT-3)通常擁有數十億甚至千億參數。要將它們用於特定任務(如法律問答、醫療問診),就需要進行微調(fine-tuning)。LoRA 的核心策略是:「凍結原始大模型的參數,只訓練插入的新參數矩陣。」,其參數高效、訓練快速、部署靈活,是當前最適合 Web3 模型部署與組合調用的主流微調方法。
OpenLoRA 是 OpenLedger 構建的一套專爲多模型部署與資源共享而設計的輕量級推理框架。它核心目標是解決當前 AI 模型部署中常見的高成本、低復用、GPU 資源浪費等問題,推動「可支付 AI」(Payable AI)的落地執行。
OpenLoRA 系統架構核心組件,基於模塊化設