稳健,是 Gate 持续增长的核心动力。
真正的成长,不是顺风顺水,而是在市场低迷时依然坚定前行。我们或许能预判牛熊市的大致节奏,但绝无法精准预测它们何时到来。特别是在熊市周期,才真正考验一家交易所的实力。
Gate 今天发布了2025年第二季度的报告。作为内部人,看到这些数据我也挺惊喜的——用户规模突破3000万,现货交易量逆势环比增长14%,成为前十交易所中唯一实现双位数增长的平台,并且登顶全球第二大交易所;合约交易量屡创新高,全球化战略稳步推进。
更重要的是,稳健并不等于守成,而是在面临严峻市场的同时,还能持续创造新的增长空间。
欢迎阅读完整报告:https://www.gate.com/zh/announcements/article/46117
AI赋能加密货币行业:从产业链到创新应用
AI与加密货币的融合:从零到巅峰
人工智能技术近年来取得了突破性进展,被一些人视为第四次工业革命。大型语言模型的出现显著提升了各行各业的效率,波士顿咨询公司认为GPT为美国提高了约20%的工作效率。同时,大模型的泛化能力被认为是一种新的软件设计范式,有别于传统的精确代码编写,现在的软件设计更多地是将泛化的大模型框架嵌入软件中,使软件具备更好的表现和更广泛的模态输入输出支持。深度学习技术确实为AI行业带来了新一轮繁荣,这股热潮也延伸到了加密货币行业。
AI行业的发展历程
AI行业始于20世纪50年代,为实现人工智能的愿景,学术界和工业界在不同时期基于不同学科背景,发展出了多种实现人工智能的流派。
现代人工智能技术主要采用"机器学习"方法,其理念是让机器依靠数据在任务中反复迭代以改善系统性能。主要步骤包括:将数据输入算法,用数据训练模型,测试部署模型,使用模型完成自动化预测任务。
目前机器学习主要有三大流派:联结主义、符号主义和行为主义,分别模仿人类的神经系统、思维和行为。以神经网络为代表的联结主义占据上风(也称为深度学习)。神经网络架构包括一个输入层、一个输出层和多个隐藏层,当层数和神经元(参数)数量足够多时,就能拟合复杂的通用型任务。通过数据输入不断调整神经元参数,最终神经元会达到最佳状态(参数)。
深度学习技术也经历了多次迭代与演进,从最早期的神经网络,到前馈神经网络、RNN、CNN、GAN,最后发展到现代大模型如GPT等使用的Transformer技术。Transformer技术只是神经网络的一个演进方向,增加了一个转换器,用于将各种模态(如音频、视频、图片等)的数据编码成对应的数值表示,然后输入神经网络,使神经网络能够拟合任何类型的数据,实现多模态。
AI发展经历了三次技术浪潮:
20世纪60年代,符号主义技术发展引起的第一次浪潮,解决了通用的自然语言处理和人机对话问题。同期,专家系统诞生。
1997年,IBM深蓝"Blue"战胜国际象棋冠军卡斯帕罗夫,标志着AI技术的第二次高潮。
2006年,深度学习概念提出,掀起第三次技术浪潮。深度学习算法逐渐演进,从RNN、GAN到Transformer以及Stable Diffusion,塑造了联结主义的鼎盛时期。
深度学习产业链
当前大模型语言普遍采用基于神经网络的深度学习方法。以GPT为代表的大模型引发了新一轮人工智能热潮,大量玩家涌入这个赛道,市场对数据和算力的需求激增。因此,我们重点探讨深度学习算法的产业链,分析在深度学习主导的AI行业中,其上下游是如何组成的,以及上下游的现状、供需关系和未来发展。
基于Transformer技术的GPT等大语言模型(LLMs)训练主要分为三个步骤:
预训练:输入大量数据对,寻找模型各个神经元的最佳参数。这是最耗费算力的过程,需要反复迭代尝试各种参数。
微调:使用少量但高质量的数据进行训练,提升模型输出质量。
强化学习:建立一个"奖励模型",对大模型的输出结果进行排序,用于自动迭代大模型参数。有时也需要人工参与评判模型输出质量。
影响大模型表现的三个主要因素是参数数量、数据量与质量、算力。这三个要素孕育了一整条产业链。
硬件GPU提供商
目前Nvidia在AI GPU芯片设计领域处于绝对领先地位。学术界主要使用消费级GPU(如RTX系列),工业界主要使用H100、A100等用于大模型商业化落地的芯片。
2023年,Nvidia最新的H100芯片一经发布就获得多家公司大量订购。全球对H100芯片的需求远超供给,出货周期已达52周之久。为摆脱对Nvidia的依赖,Google牵头与英特尔、高通、微软、亚马逊等公司成立了CUDA联盟,共同研发GPU。
云服务提供商
云服务提供商在购买足够的GPU组建高性能计算集群后,为资金有限的AI企业提供弹性算力和托管训练解决方案。目前市场主要分为三类云算力提供商:
传统云厂商为代表的超大规模云算力平台(如AWS、Google Cloud、Azure)
垂直赛道的云算力平台,主要为AI或高性能计算而设计
新兴的推理即服务提供商,主要为客户部署预训练模型并进行微调或推理
数据库提供商
对于AI数据和深度学习训练推理任务,业内主要使用"向量数据库"。向量数据库能高效存储、管理和索引海量高维向量数据,将非结构化数据以"向量"形式统一存储。
主要玩家包括Chroma、Zilliz、Pinecone、Weaviate等。随着数据需求增加和各细分领域大模型与应用的涌现,对向量数据库的需求将大幅增长。
边缘设备
在组建GPU高性能计算集群时,会消耗大量能量并产生热能。为保证集群持续运行,需要冷却系统等边缘设备。
在能源供给方面,主要采用电能。数据中心及支持网络目前占全球电力消耗的2%-3%。BCG预计到2030年,训练大模型的电力消耗将增长三倍。
在散热方面,目前以风冷为主,但液冷系统正受到大力投资。液冷主要分为冷板式、浸没式和喷淋式三种。
AI应用
目前AI应用的发展类似区块链行业,基础设施非常拥挤,但应用开发相对滞后。当前活跃用户数最多的AI应用大多是搜索类应用,类型较为单一。
AI应用的用户留存率普遍低于传统互联网应用。活跃用户比例方面,传统互联网软件的DAU/MAU中位数为51%,而AI应用最高仅为41%。用户留存率方面,传统互联网软件前十名的中位数为63%,而ChatGPT的留存率仅为56%。
加密货币与AI的关系
区块链技术得益于零知识证明等技术的发展,演变成了去中心化和去信任化的思想。从本质上看,整个区块链网络是一个价值网络,每笔交易都是以底层代币为基础的价值转换。代币经济学规定了生态系统结算物(网络原生代币)的相对价值。
代币经济学能为任何创新与存在赋予价值,无论是思想还是实物创造。这种对价值重新定义和发现的手段对AI行业也至关重要。在AI产业链中发行代币,能让各个环节都进行价值重塑,激励更多人深耕AI行业细分赛道。代币还能反哺生态系统,促进某些哲学思想的诞生。
区块链的不可篡改和无需信任特性在AI行业也有实际意义,能实现一些需要信任的应用。例如,确保模型在使用用户数据时不知道具体数据内容、不泄露数据、返回真实的推理结果。当GPU供应不足时,可通过区块链网络分销;当GPU迭代后,闲置的GPU能贡献算力到网络中,重新发挥价值。
加密货币行业AI相关项目概览
GPU供给侧
在加密货币行业的AI产业链中,算力供给是最重要的一环。目前基本面较好的项目是Render,主要用于非大模型类的视频渲染任务。
行业预测2024年GPU算力需求约750亿美元,到2032年将达到7730亿美元,年复合增长率约33.86%。随着GPU市场爆发和摩尔定律影响,未来会形成大量非最新几代的GPU,这些闲置GPU可在共享网络中继续发挥价值。
硬件带宽
带宽往往是影响大模型训练时间的主要因素,特别是在链上云计算领域。但共享带宽可能是一个伪概念,因为对高性能计算集群而言,数据主要存储在本地节点,而共享带宽中数据存储在一定距离外,地理位置差异导致的延迟会远高于本地存储。
数据
目前上线的加密货币行业AI数据提供项目包括EpiK Protocol、Synesis One、Masa等。与传统数据企业相比,Web3数据提供商在数据采集方面具有优势,因为个人可以贡献非隐私数据(甚至通过零知识证明技术贡献隐私数据)。这扩大了项目的覆盖面,不仅面向企业,还能为任何用户的数据定价。
ZKML(零知识机器学习)
若要实现数据的隐私计算和训练,业内主要采用零知识证明方案,使用同态加密技术在链下进行推理,然后将结果和零知识证明上传链上。这既保证了数据隐私,又实现了高效低成本的推理。
除了专注于AI领域的链下训练和推理项目,还有一些通用型的零知识项目,如Axiom、Risc Zero、Ritual等,它们能为任何链下计算和数据提供零知识证明,应用边界更广。
AI应用
加密货币行业的AI应用情况与传统AI行业类似,大部分处于基础设施建设阶段,下游应用发展相对薄弱。这类AI+区块链应用更多是传统区块链应用加上自动化和泛化能力,如AI Agent可以根据用户需求执行最优的DeFi交易或借贷路径。
Fetch.AI是代表性的AI Agent项目。它定义AI Agent为"一个在区块链网络上自我运行的程序,可以连接、搜