人工智能在閉門造訪中被構建,這是一個錯誤

人工智能正在悄然重塑現代生活的每個角落。從我們如何搜索網路到我們如何投資、學習和投票,AI模型現在調解我們一些最關鍵的決策。但在日益增長的便利背後,存在一個更深層次、更緊迫的擔憂:公衆無法看到這些模型是如何工作的,它們的訓練數據是什麼,或者誰從中受益。

這是既視感。

我們以前在社交媒體上經歷過這一切,信任少數幾家公司對公共話語權擁有前所未有的權力。這導致了算法的不透明、貨幣化的憤怒和共享現實的侵蝕。這一次,不僅是我們的信息流面臨風險,還有我們的決策系統、法律框架和核心機構。

而我們正帶着閉着眼睛走入其中。

集中化的未來已經開始形成

今天的人工智能領域被少數強大的實驗室所主導,這些實驗室在封閉的環境中運作。這些公司在大量數據集上訓練大型模型——這些數據集是從互聯網上抓取的,有時沒有得到同意——並將其發布在塑造每天數十億數字互動的產品中。這些模型不接受審查。數據無法審計。結果沒有問責。

這種集中化不僅僅是一個技術問題。這是一個政治和經濟問題。認知的未來正被構建在黑箱中,被法律防火牆封鎖,並爲股東價值進行優化。隨着人工智能系統變得越來越自主並嵌入社會,我們面臨着將基本公共基礎設施轉變爲私人治理引擎的風險。

問題不在於人工智能是否會改變社會;它已經改變了。真正的問題是我們是否可以對這種轉變的進程有所發言。

去中心化人工智能的案例

然而,還有一條替代路徑——這條路徑已經被世界各地的社區、研究人員和開發者所探索。

這個運動建議構建設計透明、治理去中心化並對推動它們的人負責的人工智能系統,而不是強化封閉的生態系統。這一轉變不僅需要技術創新,還需要圍繞所有權、認可和集體責任進行文化重新調整。

在這樣的模型中,數據不僅僅被提取和貨幣化而不予以承認。它是由生成數據的人貢獻、驗證和治理的。貢獻者可以獲得認可或獎勵。驗證者成爲利益相關者。系統隨着公衆監督而發展,而不是單方面的控制。

雖然這些方法仍處於早期開發階段,但它們指向一個截然不同的未來——一個智能以點對點的方式流動,而不是自上而下的方式。

爲什麼透明度不能等待

人工智能基礎設施的整合正在以驚人的速度進行。萬億美元的公司正在競相建立垂直整合的管道。各國政府正在提出監管措施,但難以跟上。同時,人們對人工智能的信任正在減弱。最近的艾德曼報告發現,只有35%的美國人信任人工智能公司,這一比例比前幾年顯著下降。

這場信任危機並不令人驚訝。公衆如何能信任他們不理解、無法審計且沒有救濟的系統?

唯一可持續的解藥是透明度,不僅僅是在模型本身,而是在每個層面:從數據是如何收集的,到模型是如何訓練的,再到誰從它們的使用中獲利。通過支持開放基礎設施和建立協作歸因框架,我們可以開始重新平衡權力動態。

這不是關於阻礙創新。它是關於塑造創新。

共享所有權可能是什麼樣的

構建一個透明的人工智能經濟需要重新思考的不僅僅是代碼庫。這意味着要重新審視過去二十年定義科技行業的激勵措施。

一個更具民主性的人工智能未來可能包括公共帳本,追蹤數據貢獻如何影響結果,集體治理模型更新和部署決策的過程,爲貢獻者、培訓者和驗證者提供經濟參與,以及反映地方價值觀和背景的聯合培訓系統。

它們是一個未來的起點,在這個未來中,人工智能不僅僅響應資本,還響應一個社區。

時鍾在滴答

我們仍然可以選擇這如何展開。我們已經看到當我們將數字代理權交給中心化平台時會發生什麼。隨着人工智能的出現,後果將更加深遠且更不可逆轉。

如果我們想要一個智能作爲共享公共財富而不是私人資產的未來,那麼我們必須開始構建開放、可審計和公平的系統。

這始於一個簡單的問題:AI最終應該服務於誰?

拉姆·庫馬爾

拉姆·庫馬爾

Ram Kumar 是 OpenLedger 的核心貢獻者,該平台爲人工智能提供了一個新的經濟層,在這裏數據貢獻者、模型構建者和應用開發者的價值終於得到了認可和獎勵。Ram 擁有處理數十億美元企業帳戶的豐富經驗,成功與沃爾瑪、索尼、GSK 和《洛杉磯時報》等全球巨頭合作。

查看原文
此页面可能包含第三方内容,仅供参考(非陈述/保证),不应被视为 Gate 认可其观点表述,也不得被视为财务或专业建议。详见声明
  • 讚賞
  • 留言
  • 分享
留言
0/400
暫無留言
交易,隨時隨地
qrCode
掃碼下載 Gate APP
社群列表
繁體中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)