AI+Web3: Menjelajahi penerapan insentif terdistribusi di pasar data, daya komputasi, dan model sumber terbuka

AI+Web3: Menara dan Lapangan

TL;DR

  1. Proyek Web3 dengan konsep AI menjadi target menarik di pasar primer dan sekunder.

  2. Kesempatan Web3 di industri AI terletak pada: memanfaatkan insentif terdistribusi untuk mengoordinasikan potensi pasokan ekor panjang, yang melibatkan data, penyimpanan, dan komputasi; sekaligus membangun model sumber terbuka dan pasar terdesentralisasi untuk AI Agent.

  3. AI terutama diterapkan di industri Web3 pada keuangan on-chain (pembayaran kripto, perdagangan, analisis data) serta mendukung pengembangan.

  4. Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 menembus batas.

AI+Web3: Menara dan Lapangan

Pendahuluan

Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepat. Gelombang yang dipicu oleh Chatgpt ini tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang bidang Web3.

Dukungan konsep AI telah secara signifikan meningkatkan pendanaan di pasar kripto. Menurut statistik, hanya pada paruh pertama tahun 2024, ada 64 proyek Web3+AI yang telah menyelesaikan pendanaan, dan sistem operasi berbasis kecerdasan buatan Zyber365 telah mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS pada putaran A.

Pasar sekunder semakin makmur. Data dari situs agregator kripto Coingecko menunjukkan bahwa dalam waktu lebih dari satu tahun, total kapitalisasi pasar untuk jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar dolar AS. Kemajuan teknologi AI yang utama memberikan dampak positif yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata di sektor AI naik sebesar 151%. Efek AI juga menyebar ke salah satu sektor penarikan kripto, Meme: MemeCoin dengan konsep AI Agent pertama - GOAT dengan cepat menjadi terkenal dan mendapatkan valuasi 1,4 miliar dolar AS, berhasil memicu gelombang Meme AI.

Penelitian dan topik mengenai AI+Web3 juga sedang hangat, dari AI+Depin hingga AI Memecoin hingga saat ini AI Agent dan AI DAO, emosi FOMO jelas tidak dapat mengikuti kecepatan perputaran narasi baru.

Kombinasi istilah AI+Web3 yang dipenuhi dengan uang panas, tren, dan fantasi masa depan ini tidak dapat dihindari akan dianggap sebagai pernikahan yang diatur oleh modal. Tampaknya kita sulit membedakan di balik penampilan yang megah ini, apakah ini benar-benar arena para spekulan, ataukah malam sebelum terjadinya ledakan fajar?

Untuk menjawab pertanyaan ini, pemikiran kunci bagi kedua belah pihak adalah: Apakah ada manfaat yang lebih baik dengan adanya pihak lain? Apakah bisa mendapatkan keuntungan dari pola pihak lain? Artikel ini mencoba untuk melihat pola ini dengan berdiri di atas bahu para pendahulu: Bagaimana Web3 berperan dalam setiap tahap tumpukan teknologi AI, dan apa yang dapat diberikan AI untuk memberi kehidupan baru pada Web3?

Bagian.1 Apa peluang Web3 di bawah tumpukan AI?

Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model AI besar:

Sampaikan seluruh proses dalam bahasa yang sederhana: "Model besar" seperti otak manusia, pada tahap awal mirip dengan bayi yang baru lahir, perlu mengamati dan menyerap banyak informasi dari dunia luar untuk memahami dunia, inilah yang disebut tahap "pengumpulan" data. Karena komputer tidak memiliki banyak indera seperti manusia, informasi dari dunia luar yang tidak terlabeli dalam jumlah besar perlu "diproses sebelumnya" agar dapat diubah menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.

Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dilihat sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar, dengan parameter model yang disesuaikan terus-menerus seperti kemampuan bahasa yang berkembang selama proses belajar bayi. Konten pembelajaran mulai dibagi menjadi disiplin, atau berinteraksi dengan orang lain untuk mendapatkan umpan balik dan melakukan koreksi, kemudian memasuki tahap "penyesuaian halus" dari model besar.

Setelah anak-anak tumbuh dan mulai berbicara, mereka dapat memahami makna dan mengekspresikan perasaan serta pemikiran dalam percakapan baru. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat melakukan analisis prediktif terhadap input teks dalam bahasa baru. Bayi menggunakan kemampuan bahasa untuk mengekspresikan perasaan, mendeskripsikan objek, dan memecahkan masalah, yang juga mirip dengan bagaimana model AI besar diterapkan setelah pelatihan untuk berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.

AI Agent semakin mendekati bentuk berikutnya dari model besar—kemampuan untuk menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga bisa mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.

Saat ini, terkait dengan titik nyeri AI di berbagai tumpukan, Web3 telah mulai membentuk ekosistem yang terhubung secara multilevel, mencakup berbagai tahap proses model AI.

AI+Web3:Menara dan Alun-Alun

Satu, Lapisan Dasar: Airbnb untuk Kekuatan Komputasi dan Data

Kekuatan komputasi

Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi.

Misalnya, LLAMA3 milik Meta membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA (yang merupakan unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja AI dan komputasi berkinerja tinggi) selama 30 hari untuk menyelesaikan pelatihan. Versi 80GB dari yang terakhir memiliki harga per unit antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi antara 400 juta hingga 700 juta dolar AS (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.

Pelepasan kekuatan komputasi AI juga merupakan bidang pertama di mana Web3 berinteraksi dengan AI - DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, situs data DePin Ninja telah mencantumkan lebih dari 1400 proyek, di mana proyek representatif berbagi kekuatan GPU termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.

Logika utamanya adalah: platform ini memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan tingkat pemanfaatan sumber daya GPU yang tidak sepenuhnya digunakan, sehingga pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya lebih rendah; pada saat yang sama, mekanisme staking memastikan bahwa penyedia sumber daya akan mendapatkan sanksi jika mereka melanggar mekanisme pengendalian kualitas atau memutuskan jaringan.

Ciri-cirinya adalah:

  • Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah operator pusat data independen kecil dan menengah pihak ketiga, sumber daya kelebihan dari pertambangan kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin penambangan FileCoin dan ETH. Saat ini juga ada proyek yang bertujuan untuk memulai perangkat dengan ambang yang lebih rendah, seperti exolab yang menggunakan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.

  • Menghadapi pasar panjang untuk kekuatan pemrosesan AI:

a. "Dalam hal teknologi", pasar kekuatan terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang dibawa oleh GPU skala kluster besar, sementara inferensi memiliki persyaratan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang berfokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.

b. "Dari sisi permintaan" pihak dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyesuaikan di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.

  • Kepemilikan terdesentralisasi: Makna teknis blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kendali atas sumber daya, dapat menyesuaikan dengan fleksibel sesuai permintaan, sambil mendapatkan keuntungan.

Data

Data adalah fondasi AI. Tanpa data, perhitungan seperti daun terapung yang tidak berguna. Hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan penampilan kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:

  • Kecanduan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa jumlah parameter yang digunakan OpenAI untuk melatih GPT-4 mencapai tingkat triliunan.

  • Kualitas data: Seiring dengan penggabungan AI dengan berbagai industri, ketepatan waktu data, keberagaman, spesialisasi data vertikal, dan pengambilan sumber data baru seperti emosi media sosial juga mengajukan tuntutan baru terhadap kualitasnya.

  • Masalah privasi dan kepatuhan: Saat ini, negara-negara dan perusahaan mulai menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.

  • Biaya pengolahan data yang tinggi: volume data besar, proses pengolahan kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pengolahan data dasar.

Saat ini, solusi web3 tercermin dalam empat aspek berikut:

  1. Pengumpulan data: Data dunia nyata yang dapat diambil secara gratis semakin menipis dengan cepat, dan pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pengeluaran ini tidak kembali kepada para kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data, seperti Reddit yang mencapai pendapatan total sebesar 203 juta dolar melalui perjanjian lisensi data dengan perusahaan AI.

Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk ikut serta dalam penciptaan nilai dari data, serta mendapatkan data yang lebih pribadi dan lebih bernilai dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.

  • Grass adalah lapisan data dan jaringan terdesentralisasi, pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token.

  • Vana memperkenalkan konsep kolam likuiditas data (DLP) yang unik, di mana pengguna dapat mengunggah data pribadi (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan dengan fleksibel memilih apakah akan memberikan otorisasi penggunaan data tersebut kepada pihak ketiga tertentu.

  • Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori di X dan @PublicAI untuk mengumpulkan data.

  1. Pra-pemrosesan Data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya bising dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, yang melibatkan tugas berulang seperti normalisasi, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit langkah manual dalam industri AI, yang telah melahirkan industri penanda data. Seiring dengan meningkatnya tuntutan kualitas data oleh model, ambang batas untuk penanda data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
  • Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk memasukkan pengkategorian data sebagai tahap kunci.

  • Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan memberikan data yang diberi label, komentar, atau bentuk input lainnya.

  • Proyek pelabelan data Sapien menggamifikasi tugas pelabelan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.

  1. Privasi dan Keamanan Data: Yang perlu diperjelas adalah bahwa privasi dan keamanan data adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sedangkan keamanan data melindungi informasi data dari akses, perusakan, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi aplikasi terletak pada dua aspek: (1) Pelatihan data sensitif; (2) Kolaborasi data: Beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu berbagi data asli mereka.

Teknologi privasi yang umum dalam Web3 saat ini meliputi:

  • Lingkungan Eksekusi Tepercaya ( TEE ), misalnya Protokol Super.

  • Enkripsi homomorfik sepenuhnya (FHE), seperti BasedAI, Fhenix.io, atau Inco Network.

  • Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.

Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam tahap eksplorasi, dan tantangan saat ini adalah biaya komputasi yang terlalu tinggi, misalnya:

  • Kerangka zkML EZKL memerlukan sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.

  • Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.

  1. Penyimpanan data: Setelah memiliki data, diperlukan tempat untuk menyimpan data di blockchain, serta LLM yang dihasilkan menggunakan data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, sebelum peningkatan Danksharding di Ethereum, throughput-nya adalah 0,08MB. Sementara itu, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data antara 50 hingga 100GB per detik. Selisih skala ini membuat solusi di blockchain yang ada tidak mampu menghadapi "aplikasi AI yang padat sumber daya."
  • 0g.AI adalah proyek perwakilan dalam kategori ini. Ini adalah solusi penyimpanan terpusat yang dirancang untuk kebutuhan kinerja tinggi AI, dengan fitur kunci termasuk: kinerja tinggi dan skalabilitas, mendukung pengunggahan dan pengunduhan dataset besar dengan cepat melalui teknologi sharding dan pengkodean penghapusan, kecepatan transfer data mendekati 5GB per detik.

Dua, Middleware: Pelatihan dan Inferensi Model

Pasar terdesentralisasi model sumber terbuka

Perdebatan tentang apakah model AI harus bersifat tertutup atau terbuka tidak pernah hilang. Inovasi kolektif yang dihasilkan oleh open source adalah keunggulan yang tidak dapat dibandingkan dengan model tertutup, namun tanpa adanya model bisnis yang menguntungkan, bagaimana model open source dapat meningkatkan motivasi pengembang? Ini patut dipikirkan.

Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • 6
  • Bagikan
Komentar
0/400
NeverVoteOnDAOvip
· 18jam yang lalu
Sekali lagi mengacaukan orang dengan konsep-konsep ini
Lihat AsliBalas0
PanicSeller69vip
· 19jam yang lalu
Masukkan posisi, benar-benar ingin mengejar mobil.
Lihat AsliBalas0
OnChainDetectivevip
· 19jam yang lalu
Mengawasi data selama setengah malam, bahkan mode perdagangan sudah diatur oleh AI.
Lihat AsliBalas0
SybilSlayervip
· 19jam yang lalu
Cinta enkripsi dan suka berbelanja, benar-benar harum
Lihat AsliBalas0
ThatsNotARugPullvip
· 19jam yang lalu
Web3 tua yang ingin bermain orang untuk suckers tetapi tidak ingin menjadi suckers.
Lihat AsliBalas0
BearMarketBarbervip
· 19jam yang lalu
Sekali lagi ada pemotong sayuran untuk para suckers
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)