AI dan Web3 bertemu: peluang baru dari Daya Komputasi bersama hingga insentif data

AI+Web3: Menara dan Lapangan

TL;DR

  1. Proyek Web3 berbasis konsep AI menjadi target pengumpulan dana di pasar primer dan sekunder.

  2. Peluang Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan potensi pasokan di ekor panjang, lintas data, penyimpanan, dan komputasi; sekaligus, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.

  3. AI di industri Web3 terutama digunakan untuk keuangan on-chain ( pembayaran kripto, perdagangan, analisis data ) serta pengembangan bantuan.

  4. Kegunaan AI+Web3 terletak pada saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 menjangkau lebih luas.

AI+Web3: Menara dan Lapangan

Pendahuluan

Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepat, efek kupu-kupu yang dipicu oleh Chatgpt ini tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang arus di bidang Web3.

Dengan dukungan konsep AI, terdapat peningkatan yang jelas dalam pendanaan pasar kripto yang melambat. Media mencatat, hanya dalam setengah tahun pertama 2024, terdapat 64 proyek Web3+AI yang telah menyelesaikan pendanaan, dan sistem operasi berbasis kecerdasan buatan Zyber365 telah mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS pada putaran A.

Pasar sekunder semakin berkembang, data dari situs agregator kripto Coingecko menunjukkan, dalam waktu lebih dari satu tahun, total kapitalisasi pasar sektor AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI arus utama membawa keuntungan yang jelas, setelah peluncuran model video teks Sora dari OpenAI, harga rata-rata sektor AI meningkat sebesar 151%; efek AI juga menjangkau salah satu sektor pengumpulan dana cryptocurrency, Meme: konsep MemeCoin GOAT sebagai AI Agent pertama dengan cepat menjadi populer dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren AI Meme.

Penelitian dan topik tentang AI+Web3 juga sangat panas, dari AI+Depin hingga AI Memecoin dan saat ini AI Agent dan AI DAO, emosi FOMO sudah tidak bisa mengikuti kecepatan perputaran narasi baru.

AI+Web3, kombinasi istilah yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan ini, tak terhindarkan dipandang sebagai pernikahan yang diatur oleh modal, kita tampaknya sulit untuk membedakan di bawah jubah yang megah ini, apakah ini benar-benar arena spekulan, atau malam sebelum terjadinya fajar?

Untuk menjawab pertanyaan ini, sebuah pemikiran yang penting bagi kedua belah pihak adalah, apakah dengan adanya satu sama lain akan menjadi lebih baik? Apakah ada manfaat yang bisa didapat dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk melihat pola ini dengan berdiri di atas bahu para pendahulu: Bagaimana Web3 dapat berperan di setiap aspek tumpukan teknologi AI, dan apa yang dapat AI bawa untuk memberikan kehidupan baru bagi Web3?

Part.1 Apa peluang Web3 di bawah tumpukan AI?

Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi dari model besar AI:

AI+Web3:Menara dan Alun-Alun

Dengan bahasa yang lebih sederhana, keseluruhan proses dapat dijelaskan sebagai berikut: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir ke dunia, yang perlu mengamati dan menyerap informasi eksternal yang sangat besar untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki penglihatan, pendengaran, dan banyak indera lainnya seperti manusia, sebelum pelatihan, informasi eksternal yang tidak terlabel dalam skala besar perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.

Setelah data dimasukkan, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model mirip dengan kemampuan bahasa bayi yang terus disesuaikan selama proses belajar. Ketika materi yang dipelajari mulai dibagi menjadi disiplin ilmu, atau ketika berinteraksi dengan orang lain mendapatkan umpan balik dan melakukan perbaikan, maka memasuki tahap "penyesuaian halus" dari model besar.

Setelah anak-anak tumbuh dan belajar berbicara, mereka dapat memahami makna dan mengekspresikan perasaan serta pemikiran mereka dalam percakapan baru. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis masukan bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan menyelesaikan berbagai masalah melalui kemampuan bahasa mereka, yang juga mirip dengan bagaimana model AI besar diterapkan pada berbagai tugas spesifik setelah menjalani pelatihan dan digunakan dalam tahap penalaran, seperti klasifikasi gambar, pengenalan suara, dan lainnya.

AI Agent semakin mendekati bentuk berikutnya dari model besar - mampu menjalankan tugas secara mandiri dan mengejar tujuan kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan mampu menggunakan alat untuk berinteraksi dengan dunia.

Saat ini, terkait dengan masalah AI di berbagai tumpukan, Web3 saat ini telah membentuk sebuah ekosistem multi-level yang saling terhubung, mencakup berbagai tahap proses model AI.

Satu, Lapisan Dasar: Kekuatan Komputasi dan Data Airbnb

Kekuatan komputasi

Saat ini, salah satu biaya tertinggi untuk AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan menerapkan model.

Salah satu contohnya adalah, LLAMA3 dari Meta membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA(, yang merupakan unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi.) Pelatihan dapat memakan waktu 30 hari. Harga satuan untuk versi 80GB berkisar antara 30.000 hingga 40.000 dolar AS, yang memerlukan investasi perangkat keras komputasi antara 400 juta hingga 700 juta dolar AS( GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.

Untuk pelepasan daya komputasi AI, ini adalah bidang pertama kali Web3 bersinggungan dengan AI - DePin( jaringan infrastruktur fisik terdesentralisasi) saat ini, situs data DePin Ninja telah menampilkan lebih dari 1400 proyek, di mana proyek perwakilan berbagi daya GPU termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.

Logika utamanya adalah: platform ini memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online antara pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang tidak terpakai, sehingga pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.

Ciri-cirinya adalah:

  • Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah operator pusat data kecil dan menengah independen pihak ketiga, sumber daya kelebihan daya dari pertambangan kripto, perangkat keras pertambangan dengan mekanisme konsensus PoS, seperti mesin penambangan FileCoin dan ETH. Saat ini juga ada proyek yang bertujuan untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad dan perangkat lokal lainnya untuk membangun jaringan daya pemodelan besar.

  • Menghadapi pasar ekor panjang dari kekuatan komputasi AI:

a. "Dari sisi teknologi," pasar kekuatan terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang dihasilkan oleh GPU berskala besar, sedangkan inferensi memiliki kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.

b. "Dari sisi permintaan" pihak dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya memilih untuk mengoptimalkan dan menyesuaikan di sekitar beberapa model besar utama, dan skenario-skenario ini secara alami cocok untuk sumber daya komputasi idle terdistribusi.

  • Kepemilikan terdesentralisasi: Makna teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kendali atas sumber daya tersebut, dapat menyesuaikan secara fleksibel sesuai dengan permintaan, sambil mendapatkan keuntungan.

Data

Data adalah fondasi AI. Tanpa data, perhitungan seperti daun terapung yang tidak berguna, dan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan berbahasa model, kemampuan pemahaman, bahkan pandangan nilai dan penampilan kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:

  • Ketergantungan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa OpenAI melatih GPT-4 dengan jumlah parameter mencapai tingkat triliun.

  • Kualitas data: Dengan kombinasi AI dan berbagai industri, ketepatan waktu data, keragaman data, profesionalisme data vertikal, serta pengambilan sumber data baru seperti emosi media sosial juga telah menuntut kualitas yang baru.

  • Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.

  • Biaya pemrosesan data yang tinggi: jumlah data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.

Saat ini, solusi web3 tercermin dalam empat aspek berikut:

  1. Pengumpulan data: Kemampuan untuk menyediakan data dunia nyata yang diambil secara gratis sedang cepat habis, pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali ke kontributor nyata data tersebut, platform sepenuhnya menikmati penciptaan nilai yang dibawa oleh data, seperti salah satu platform yang menghasilkan total pendapatan sebesar 203 juta dolar AS melalui perjanjian lisensi data yang ditandatangani dengan perusahaan AI.

Membiarkan pengguna yang benar-benar berkontribusi juga terlibat dalam penciptaan nilai yang dihasilkan oleh data, serta mendapatkan data yang lebih pribadi dan lebih bernilai secara lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.

  • Grass adalah lapisan data dan jaringan terdesentralisasi, pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relay untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;

  • Vana memperkenalkan konsep kolam likuiditas data unik (DLP), di mana pengguna dapat mengunggah data pribadi mereka ( seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dan lain-lain ) ke DLP tertentu, dan dengan fleksibel memilih apakah akan memberikan izin penggunaan data tersebut kepada pihak ketiga tertentu;

  • Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori di platform sosial dan @PublicAI untuk mengumpulkan data.

  1. Pra-pemrosesan Data: Dalam proses pengolahan data AI, karena data yang dikumpulkan biasanya bising dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, melibatkan tugas berulang seperti normalisasi, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit tahap manual dalam industri AI, yang telah melahirkan industri pelabelan data. Seiring dengan meningkatnya tuntutan kualitas data dari model, ambang batas bagi pelabelan data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
  • Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk bergabung dalam tahap penting ini, yaitu pelabelan data.

  • Synesis mengajukan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh hadiah dengan memberikan data yang diberi label, komentar, atau bentuk masukan lainnya.

  • Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna mempertaruhkan poin untuk mendapatkan lebih banyak poin.

  1. Privasi dan Keamanan Data: Yang perlu dijelaskan adalah bahwa privasi dan keamanan data adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sedangkan keamanan data melindungi informasi data dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi aplikasi tercermin dalam dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa harus berbagi data asli mereka.

Teknologi privasi yang cukup umum di Web3 saat ini meliputi:

  • Lingkungan Eksekusi Tepercaya ( TEE ), seperti Protokol Super;

  • Enkripsi homomorfik sepenuhnya ( FHE ), misalnya BasedAI, Fhenix.io atau Inco Network;

  • Teknologi zero-knowledge ( zk ), seperti Reclaim Protocol yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman, tanpa mengungkapkan informasi sensitif.

Namun, saat ini bidang ini masih dalam tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu dilema saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:

  • Kerangka zkML EZKL memerlukan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.

  • Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.

  1. Penyimpanan data: Setelah data tersedia, kita masih memerlukan tempat untuk menyimpan data di blockchain, serta LLM yang dihasilkan dari data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, sebelum peningkatan Danksharding Ethereum, throughputnya adalah 0,08MB. Sementara itu, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data antara 50 hingga 100GB per detik. Selisih skala ini membuat blockchain yang ada
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 4
  • Bagikan
Komentar
0/400
DeFiDoctorvip
· 3jam yang lalu
Pemeriksaan proses standar menunjukkan bahwa merger AI+Web3 ini perlu mengamati stabilitas kode selama tiga bulan terlebih dahulu.
Lihat AsliBalas0
wrekt_but_learningvip
· 17jam yang lalu
Bear Market juga belum bangun.
Lihat AsliBalas0
WenAirdropvip
· 17jam yang lalu
gpt lebih kuat daripada manusia, itu sangat tidak adil bagi kita
Lihat AsliBalas0
BearMarketBuyervip
· 18jam yang lalu
Saya hanya menggoreng kesepian, lihat AI ya
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)