🔥 Fragmetric(FRAG) 全家桶系列活动:HODLer Airdrop、Launchpool、Alpha、CandyDrop、余币宝
💰 多重奖励池:
• HODLer空投:250,000 FRAG
• Launchpool:750,000 FRAG
• Alpha:250,000 FRAG
• CandyDrop:750,000 FRAG
• 余币宝:250,000 FRAG
立即参与👉 https://www.gate.com/zh/announcements/article/45863
人工智能在闭门造访中被构建,这是一个错误
人工智能正在悄然重塑现代生活的每个角落。从我们如何搜索网络到我们如何投资、学习和投票,AI模型现在调解我们一些最关键的决策。但在日益增长的便利背后,存在一个更深层次、更紧迫的担忧:公众无法看到这些模型是如何工作的,它们的训练数据是什么,或者谁从中受益。
这是既视感。
我们以前在社交媒体上经历过这一切,信任少数几家公司对公共话语权拥有前所未有的权力。这导致了算法的不透明、货币化的愤怒和共享现实的侵蚀。这一次,不仅是我们的信息流面临风险,还有我们的决策系统、法律框架和核心机构。
而我们正带着闭着眼睛走入其中。
集中化的未来已经开始形成
今天的人工智能领域被少数强大的实验室所主导,这些实验室在封闭的环境中运作。这些公司在大量数据集上训练大型模型——这些数据集是从互联网上抓取的,有时没有得到同意——并将其发布在塑造每天数十亿数字互动的产品中。这些模型不接受审查。数据无法审计。结果没有问责。
这种集中化不仅仅是一个技术问题。这是一个政治和经济问题。认知的未来正被构建在黑箱中,被法律防火墙封锁,并为股东价值进行优化。随着人工智能系统变得越来越自主并嵌入社会,我们面临着将基本公共基础设施转变为私人治理引擎的风险。
问题不在于人工智能是否会改变社会;它已经改变了。真正的问题是我们是否可以对这种转变的进程有所发言。
去中心化人工智能的案例
然而,还有一条替代路径——这条路径已经被世界各地的社区、研究人员和开发者所探索。
这个运动建议构建设计透明、治理去中心化并对推动它们的人负责的人工智能系统,而不是强化封闭的生态系统。这一转变不仅需要技术创新,还需要围绕所有权、认可和集体责任进行文化重新调整。
在这样的模型中,数据不仅仅被提取和货币化而不予以承认。它是由生成数据的人贡献、验证和治理的。贡献者可以获得认可或奖励。验证者成为利益相关者。系统随着公众监督而发展,而不是单方面的控制。
虽然这些方法仍处于早期开发阶段,但它们指向一个截然不同的未来——一个智能以点对点的方式流动,而不是自上而下的方式。
为什么透明度不能等待
人工智能基础设施的整合正在以惊人的速度进行。万亿美元的公司正在竞相建立垂直整合的管道。各国政府正在提出监管措施,但难以跟上。同时,人们对人工智能的信任正在减弱。最近的艾德曼报告发现,只有35%的美国人信任人工智能公司,这一比例比前几年显著下降。
这场信任危机并不令人惊讶。公众如何能信任他们不理解、无法审计且没有救济的系统?
唯一可持续的解药是透明度,不仅仅是在模型本身,而是在每个层面:从数据是如何收集的,到模型是如何训练的,再到谁从它们的使用中获利。通过支持开放基础设施和建立协作归因框架,我们可以开始重新平衡权力动态。
这不是关于阻碍创新。它是关于塑造创新。
共享所有权可能是什么样的
构建一个透明的人工智能经济需要重新思考的不仅仅是代码库。这意味着要重新审视过去二十年定义科技行业的激励措施。
一个更具民主性的人工智能未来可能包括公共账本,追踪数据贡献如何影响结果,集体治理模型更新和部署决策的过程,为贡献者、培训者和验证者提供经济参与,以及反映地方价值观和背景的联合培训系统。
它们是一个未来的起点,在这个未来中,人工智能不仅仅响应资本,还响应一个社区。
时钟在滴答
我们仍然可以选择这如何展开。我们已经看到当我们将数字代理权交给中心化平台时会发生什么。随着人工智能的出现,后果将更加深远且更不可逆转。
如果我们想要一个智能作为共享公共财富而不是私人资产的未来,那么我们必须开始构建开放、可审计和公平的系统。
这始于一个简单的问题:AI最终应该服务于谁?
拉姆·库马尔
Ram Kumar 是 OpenLedger 的核心贡献者,该平台为人工智能提供了一个新的经济层,在这里数据贡献者、模型构建者和应用开发者的价值终于得到了认可和奖励。Ram 拥有处理数十亿美元企业账户的丰富经验,成功与沃尔玛、索尼、GSK 和《洛杉矶时报》等全球巨头合作。