AI+Web3: Dağıtık teşviklerin veri, Bilgi İşlem Gücü ve Açık Kaynak model pazarındaki uygulamalarını keşfetmek

AI+Web3: Kuleler ve Meydan

TL;DR

  1. AI kavramına sahip Web3 projeleri birinci ve ikinci piyasada çekim merkezi haline geldi.

  2. Web3'ün AI sektöründeki fırsatları, dağıtılmış teşviklerle uzun kuyruk potansiyel arzını koordine etmeyi, veri, depolama ve hesaplamayı içerir; aynı zamanda açık kaynaklı modeller ve AI Agent'ların merkeziyetsiz pazarını kurmayı içerir.

  3. AI, Web3 endüstrisinde esas olarak zincir üzeri finans (kripto ödemeler, ticaret, veri analizi) ve geliştirmeyi desteklemek için kullanılmaktadır.

  4. AI+Web3'ün faydası, ikisinin birbirini tamamlamasında ortaya çıkmaktadır: Web3, AI merkezileşmesine karşı koyma umudu taşırken, AI'nın Web3'ü sınırlarını aşmasına yardımcı olma potansiyeli bulunmaktadır.

AI+Web3: Kuleler ve Meydanlar

Giriş

Son iki yılda, AI gelişimi sanki bir hızlandırma tuşuna basılmış gibi. Chatgpt'nin başlattığı bu dalga sadece üretken yapay zekanın yeni bir dünyasını açmakla kalmadı, aynı zamanda Web3 alanında da büyük dalgalar yarattı.

Yapay zeka kavramının desteğiyle, kripto piyasası finansmanı belirgin bir şekilde arttı. İstatistiklere göre, 2024'ün ilk yarısında 64 Web3+AI projesi finansman sağladı ve yapay zeka tabanlı işletim sistemi Zyber365, A turunda 100 milyon dolar ile en yüksek finansman miktarını gerçekleştirdi.

İkincil piyasa daha da canlı. Kripto agregat sitesi Coingecko'nun verilerine göre, sadece bir yıl içinde, AI alanının toplam piyasa değeri 48.5 milyar dolara ulaştı, 24 saatlik işlem hacmi ise neredeyse 8.6 milyar dolara yaklaştı. Ana akım AI teknolojilerindeki ilerlemelerin sağladığı olumlu etkiler belirgin, OpenAI'nin Sora metin-video modelinin piyasaya sürülmesinin ardından, AI alanındaki ortalama fiyat %151 arttı. AI etkisi aynı zamanda kripto para çekim alanlarından biri olan Meme'ye de yansıdı: İlk AI Agent konsepti olan MemeCoin - GOAT hızla popülerlik kazandı ve 1.4 milyar dolarlık bir değerleme elde etti, AI Meme dalgasını başarıyla başlattı.

AI+Web3 ile ilgili araştırmalar ve konular da oldukça popüler, AI+Depin'den AI Memecoin'e, günümüzdeki AI Agent ve AI DAO'ya kadar, FOMO duygusu yeni anlatı döngüsünün hızına yetişemiyor.

AI+Web3, bu sıcak para, fırsatlar ve geleceğe dair hayallerle dolu terim kombinasyonu, kaçınılmaz olarak bir sermaye tarafından düzenlenen zoraki bir evlilik olarak görülüyor. Bu görkemli dış görünümün altında, tam olarak spekülatörlerin sahası mı, yoksa bir uyanışın eşiği mi olduğunu ayırt etmekte zorlanıyoruz?

Bu soruyu yanıtlamak için her iki taraf için de kritik bir düşünce şudur: Diğer tarafla birlikte daha iyi mi olacak? Diğer tarafın modelinden faydalanabilir mi? Bu makale, önceki çalışmaların üzerine çıkarak bu yapıyı incelemeyi amaçlıyor: Web3, AI teknolojik yelpazesinin her aşamasında nasıl bir rol oynuyor ve AI, Web3'e ne gibi yeni bir canlanma getirebilir?

Bölüm 1 AI yığınında Web3'ün ne gibi fırsatları var?

Bu konuyu açmadan önce, AI büyük modellerinin teknolojik yığını hakkında bilgi sahibi olmamız gerekiyor:

Tüm süreci basit bir dille ifade etmek gerekirse: "Büyük model" insan beynine benzer, erken aşamada yeni doğmuş bir bebeğe aittir, dış dünyadan gelen büyük miktarda bilgiye gözlem yaparak anlamaya çalışır, bu da verilerin "toplanma" aşamasıdır. Bilgisayarlar insanın çoklu duyularına sahip olmadığından, eğitim öncesinde dışarıdaki büyük ölçekli etiketlenmemiş bilgiler, bilgisayarın anlayabileceği ve kullanabileceği bilgi formatına "ön işleme" ile dönüştürülmelidir.

Veri girdikten sonra AI, "eğitim" aracılığıyla anlama ve tahmin yeteneğine sahip bir model inşa eder; bu, bir bebeğin dış dünyayı yavaş yavaş anlamaya başlaması süreci olarak düşünülebilir. Model parametreleri, bebeğin öğrenme sürecinde sürekli olarak ayarlanan dil yeteneği gibidir. Öğrenme içeriği, konulara ayrılmaya başlar veya insanlarla etkileşime geçerek geri bildirim alır ve düzeltmeler yapar, böylece büyük modelin "ince ayar" aşamasına geçilir.

Çocuklar büyüdüklerinde konuşmaya başladıklarında, yeni diyaloglarda anlamı kavrayabilir ve hislerini, düşüncelerini ifade edebilirler. Bu aşama, AI büyük modellerinin "mantık yürütme" sürecine benzer; model yeni dil metni girdilerine yönelik tahmin ve analiz yapabilir. Bebekler, dil yetenekleri aracılığıyla hislerini ifade eder, nesneleri tanımlar ve problemleri çözerler; bu da AI büyük modellerinin eğitim sürecini tamamladıktan sonra mantık yürütme aşamasında çeşitli özel görevlerde (görüntü sınıflandırma, ses tanıma vb.) uygulanmasıyla benzerdir.

AI Ajanı, büyük modellerin bir sonraki evresine daha yakın bir konumdadır - bağımsız olarak görevleri yerine getirebilen ve karmaşık hedeflere ulaşmayı hedefleyen, sadece düşünme yeteneğine sahip olmakla kalmayıp, aynı zamanda hafıza, planlama yeteneği olan ve araçları kullanarak dünya ile etkileşimde bulunabilen bir yapıdır.

Şu anda, AI'nın her katmandaki zorluklarına yönelik, Web3, AI model süreçlerinin her aşamasını kapsayan çok katmanlı, birbirine bağlı bir ekosistem oluşturmaktadır.

AI+Web3: Kuleler ve Meydanlar

Birincisi, Temel Kat: Güç ve Verilerin Airbnb'si

Hash Gücü

Şu anda, AI'nın en yüksek maliyetlerinden biri, model eğitimi ve çıkarım modelleri için gereken hesaplama gücü ve enerjidir.

Örneğin, Meta'nın LLAMA3'ü eğitimi tamamlamak için 30 gün boyunca 16.000 adet NVIDIA tarafından üretilen H100GPU'ya ihtiyaç duyar (bu, AI ve yüksek performanslı hesaplama yükleri için tasarlanmış en üst düzey grafik işleme birimi). Sonuncusu 80GB versiyonunun birim fiyatı 30.000 ile 40.000 dolar arasında değişmektedir, bu da 4-7 milyar dolar civarında bir hesaplama donanımı yatırımı (GPU+ ağ yongası) gerektirirken, aylık eğitim için 1,6 milyar kilowatt saat enerji tüketimi gerekmekte ve enerji giderleri aylık yaklaşık 20 milyon dolar olmaktadır.

AI hesaplama gücünün rahatlatılması, Web3'ün AI ile kesiştiği en erken alanlardan biridir - DePin (merkeziyetsiz fiziksel altyapı ağı). Şu anda, DePin Ninja veri sitesi 1400'den fazla projeyi listelemiştir, bunlar arasında GPU hesaplama gücü paylaşımını temsil eden projeler io.net, Aethir, Akash, Render Network gibi projelerdir.

Ana mantık şudur: Platform, sahip olduğu kullanılmayan GPU kaynaklarını izin almadan merkeziyetsiz bir şekilde hesaplama gücü sunan bireyler veya varlıklar için, Uber veya Airbnb benzeri alıcı-satıcı çevrimiçi pazarları aracılığıyla, yeterince kullanılmayan GPU kaynaklarının kullanım oranını artırırken, son kullanıcılar da daha düşük maliyetlerle verimli hesaplama kaynakları elde eder; aynı zamanda, teminat mekanizması, kaynak sağlayıcıların kalite kontrol mekanizmasını ihlal etmesi veya ağı kesintiye uğratması durumunda uygun cezaların uygulanmasını sağlar.

Özellikleri şunlardır:

  • Boş GPU kaynaklarını bir araya getirmek: Sağlayıcılar, üçüncü taraf bağımsız küçük ve orta ölçekli veri merkezleri, kripto madencilik çiftlikleri gibi işletmelerin fazla hesaplama gücü kaynaklarıdır, konsensüs mekanizması PoS olan madencilik donanımları, FileCoin ve ETH madencilik makineleri gibi. Şu anda, daha düşük giriş eşiğine sahip cihazları başlatmaya çalışan projeler de var, örneğin exolab, MacBook, iPhone, iPad gibi yerel cihazları kullanarak büyük model çıkarım hesaplama ağı oluşturuyor.

  • AI hesaplama gücünün uzun kuyruk pazarına karşı:

a. "Teknik açıdan bakıldığında" merkeziyetsiz hesaplama pazarı, çıkarım adımları için daha uygundur. Eğitim, büyük küme ölçeğindeki GPU'ların sağladığı veri işleme kapasitesine daha fazla bağımlıdır, oysa çıkarım, GPU hesaplama performansı açısından daha düşük gereksinimlere sahiptir; örneğin Aethir, düşük gecikme ile render çalışmaları ve AI çıkarım uygulamalarına odaklanmaktadır.

b. "Talep tarafında" küçük hesaplama gücüne sahip talepler kendi büyük modellerini ayrı bir şekilde eğitmeyecek, yalnızca az sayıda önde gelen büyük model etrafında optimizasyon ve ince ayar yapmayı seçeceklerdir; bu senaryolar doğal olarak dağıtılmış boştaki hesaplama kaynaklarına uygundur.

  • Merkeziyetsiz mülkiyet: Blok zincirinin teknik anlamı, kaynak sahiplerinin her zaman kaynak üzerindeki kontrolü koruması, talebe göre esnek bir şekilde ayarlama yapması ve aynı zamanda kazanç elde etmesidir.

Veriler

Veri, AI'nin temelidir. Veri olmadan, hesaplama, sığ bir yaşamın sonu gibi tamamen işe yaramaz. Veri ile model arasındaki ilişki, "Çöp girerse, çöp çıkar" klişesi gibidir; verinin miktarı ve giriş kalitesi, nihai modelin çıktı kalitesini belirler. Mevcut AI modellerinin eğitimi açısından veri, modelin dil yeteneğini, anlama yeteneğini, hatta değerlerini ve insani davranışlarını belirler. Şu anda, AI'nın veri ihtiyaçlarıyla ilgili sorunları esasen dört ana alana odaklanmaktadır:

  • Veri açlığı: AI modellerinin eğitimi, büyük miktarda veri girişi gerektirir. Kamuya açık verilere göre, OpenAI'nin GPT-4'ü eğitmek için kullandığı parametre sayısı trilyon seviyesine ulaştı.

  • Veri kalitesi: AI'nin çeşitli sektörlerle birleşmesiyle birlikte, verilerin güncelliği, çeşitliliği, dikey veri uzmanlığı ve sosyal medya gibi yeni veri kaynaklarının etkisi, kaliteye yönelik yeni talepler ortaya koymuştur.

  • Gizlilik ve uyum sorunları: Şu anda ülkeler ve şirketler kaliteli veri setlerinin önemine giderek daha fazla dikkat ediyor ve veri seti taramalarını kısıtlamaya çalışıyor.

  • Veri işleme maliyetleri yüksek: Veri miktarı büyük, işlem süreci karmaşık. Kamuya açık verilere göre, AI şirketlerinin %30'undan fazlası temel veri toplama ve işleme için Ar-Ge maliyetlerine harcanmaktadır.

Şu anda, web3 çözümleri aşağıdaki dört alanda kendini göstermektedir:

  1. Veri toplama: Ücretsiz olarak toplanan gerçek dünya verileri hızla tükeniyor, AI şirketlerinin veriye yaptığı ödemeler her yıl artıyor. Ancak bu harcamalar, verilerin gerçek katkı sağlayanlarına geri dönüş sağlamıyor, platformlar verilerin yarattığı değerin tümünü keyifle yaşıyor. Örneğin, Reddit, AI şirketleriyle yaptığı veri lisans anlaşmaları sayesinde toplam 203 milyon dolar gelir elde etti.

Gerçekten katkıda bulunan kullanıcıların aynı zamanda verilerin yarattığı değer yaratımına katılmasını sağlamak ve dağıtılmış ağlar ile teşvik mekanizmaları aracılığıyla kullanıcıların daha özel ve daha değerli verilere düşük maliyetle ulaşmalarını sağlamak, Web3'ün vizyonudur.

  • Grass, merkeziyetsiz bir veri katmanı ve ağıdır. Kullanıcılar, Grass düğümleri çalıştırarak, boşta kalan bant genişliğini ve iletim trafiğini katkıda bulunarak internetin tamamındaki gerçek zamanlı verileri yakalar ve token ödülleri alırlar.

  • Vana, kullanıcıların özel verileri (alışveriş kayıtları, tarama alışkanlıkları, sosyal medya etkinlikleri vb.) belirli bir veri akış havuzuna (DLP) yükleyebilecekleri ve bu verileri belirli üçüncü tarafların kullanımına yetkilendirip yetkilendirmeme konusunda esnek bir seçim yapabilecekleri benzersiz bir veri akış havuzu (DLP) kavramını tanıttı.

  • PublicAI'de kullanıcılar, X üzerinde #AI或#Web3'ü sınıflandırma etiketi olarak kullanabilir ve veri toplamak için @PublicAI'yi etiketleyebilir.

  1. Veri ön işleme: AI veri işleme sürecinde, toplanan veriler genellikle gürültülü ve hatalar içerebildiğinden, model eğitimi öncesinde bunların temizlenmesi ve kullanılabilir bir formata dönüştürülmesi gerekir. Bu, standartlaştırma, filtreleme ve eksik değerlerin işlenmesi gibi tekrarlayan görevleri içerir. Bu aşama, AI sektöründeki nadir insan müdahalesi aşamalarından biridir ve veri etiketleyici mesleğini doğurmuştur. Modellerin veri kalitesi gereksinimleri arttıkça, veri etiketleyicilerin standartları da yükselmektedir ve bu görev doğal olarak Web3'ün merkeziyetsiz teşvik mekanizmasına uygundur.
  • Şu anda, Grass ve OpenLayer bu kritik aşamaya veri etiketleme eklemeyi düşünüyorlar.

  • Synesis, veri kalitesini vurgulayarak "Train2earn" kavramını ortaya koydu; kullanıcılar, etiketlenmiş veriler, yorumlar veya diğer giriş biçimleri sağlayarak ödüller kazanabilirler.

  • Veri etiketleme projesi Sapien, etiketleme görevlerini oyunlaştırır ve kullanıcıların daha fazla puan kazanmak için puanlarını yatırmalarına olanak tanır.

  1. Veri gizliliği ve güvenliği: Açıklığa kavuşturulması gereken husus, veri gizliliği ve güvenliğinin iki farklı kavram olduğudur. Veri gizliliği, hassas verilerin işlenmesi ile ilgilidir; veri güvenliği ise veri bilgilerini yetkisiz erişim, tahribat ve hırsızlığa karşı korur. Bu nedenle, Web3 gizlilik teknolojisinin avantajları ve potansiyel uygulama senaryoları iki alanda kendini göstermektedir: (1) Hassas verilerin eğitimi; (2) Veri işbirliği: Birden fazla veri sahibi, ham verilerini paylaşmadan AI eğitimine ortak olabilir.

Günümüzde Web3'te yaygın olarak kullanılan gizlilik teknolojileri şunlardır:

  • Güvenilir İcra Ortamı ( TEE ), örneğin Super Protocol.

  • Tam Heteromorfik Şifreleme (FHE), örneğin BasedAI, Fhenix.io veya Inco Network.

  • Sıfır bilgi teknolojisi (zk), Reclaim Protokolü gibi zkTLS teknolojisini kullanarak HTTPS trafiğinin sıfır bilgi kanıtlarını üretir ve kullanıcıların hassas bilgileri ifşa etmeden dış web sitelerinden etkinlik, itibar ve kimlik verilerini güvenli bir şekilde içe aktarmasına olanak tanır.

Ancak, bu alan hâlâ erken aşamada, çoğu proje hâlâ keşif aşamasında, mevcut zorluk ise hesaplama maliyetlerinin çok yüksek olmasıdır, örneğin:

  • zkML çerçevesi EZKL, 1M-nanoGPT modelinin kanıtını oluşturmak için yaklaşık 80 dakika alır.

  • Modulus Labs verilerine göre, zkML'nin maliyeti saf hesaplamalardan 1000 kat daha fazladır.

  1. Veri depolama: Verilere sahip olduktan sonra, verileri zincir üzerinde depolamak için bir yere ve bu verilerle oluşturulan LLM'ye ihtiyaç vardır. Veri kullanılabilirliği (DA) ana sorun olarak ele alındığında, Ethereum'un Danksharding yükseltmesinden önceki verimlilik 0.08MB'dır. Aynı zamanda, AI modellerinin eğitimi ve gerçek zamanlı çıkarımı genellikle saniyede 50 ila 100GB veri verimliliği gerektirir. Bu ölçek farkı, mevcut zincir üzerindeki çözümlerin 'kaynak yoğun AI uygulamalarıyla' başa çıkmasını zorlaştırır.
  • 0g.AI, bu kategorinin temsilci projesidir. Yüksek performans gereksinimleri için tasarlanmış merkezi depolama çözümüdür, ana özellikleri arasında: yüksek performans ve ölçeklenebilirlik, gelişmiş parçalama (Sharding) ve silme kodlama (Erasure Coding) teknolojileri ile büyük ölçekli veri setlerinin hızlı yükleme ve indirilmesini destekler, veri aktarım hızı saniyede 5GB'a yakındır.

İkincisi, Ara Yazılım: Modelin Eğitimi ve Çıkarımı

Açık Kaynak Modeli Merkeziyetsiz Pazar

AI modellerinin kapalı mı yoksa açık mı olması gerektiği konusundaki tartışma asla sona ermedi. Açık kaynaklı olmanın getirdiği kolektif yenilik, kapalı kaynaklı modellerin karşılayamayacağı bir avantajdır, ancak hiçbir kâr modeli olmadan, açık kaynaklı modeller geliştiricilerin motivasyonunu nasıl artırabilir? Bu, düşünmeye değer.

View Original
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Reward
  • 6
  • Share
Comment
0/400
NeverVoteOnDAOvip
· 14h ago
Bu kavramları insanları kandırmak için tekrar uyduruyorlar.
View OriginalReply0
PanicSeller69vip
· 14h ago
Yuvarlandı, gerçekten araca yetişmemiz gerekiyor.
View OriginalReply0
OnChainDetectivevip
· 15h ago
Verileri yarım gece izledim, işlem modu bile AI tarafından önceden ayarlandı.
View OriginalReply0
SybilSlayervip
· 15h ago
Şifrelemeyi seviyorum, alışveriş yapmayı da, gerçekten harika.
View OriginalReply0
ThatsNotARugPullvip
· 15h ago
Web3'te hem insanları enayi yerine koymak hem de enayilerden olmak istemeyen eski enayiler
View OriginalReply0
BearMarketBarbervip
· 15h ago
又一波 enayiler insanları enayi yerine koymak
View OriginalReply0
  • Pin
Trade Crypto Anywhere Anytime
qrCode
Scan to download Gate app
Community
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)