AI+Web3 Kolaborasi: Membuka Pola Baru Data dan Daya Komputasi

AI+Web3: Menara dan Lapangan

Poin Penting

  1. Proyek Web3 berbasis AI menjadi target pengumpulan dana di pasar primer dan sekunder.

  2. Kesempatan Web3 di industri AI terletak pada: memanfaatkan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang, yang melibatkan data, penyimpanan, dan komputasi; sekaligus, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.

  3. AI di industri Web3 terutama diterapkan pada keuangan on-chain (pembayaran kripto, trading, analisis data) serta pengembangan bantuan.

  4. Kegunaan AI+Web3 terlihat dari saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 untuk keluar dari lingkaran.

AI+Web3: Menara dan Lapangan

Pendahuluan

Dalam dua tahun terakhir, perkembangan AI menunjukkan percepatan yang signifikan. Gelombang kecerdasan buatan generatif yang dipicu oleh Chatgpt juga telah mengguncang bidang Web3.

Dengan dukungan konsep AI, pendanaan di pasar kripto meningkat jelas. Menurut statistik, pada paruh pertama tahun 2024, ada 64 proyek Web3+AI yang berhasil mendapatkan pendanaan, di mana sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS pada putaran A.

Pasar sekunder semakin berkembang, situs agregator kripto Coingecko menunjukkan bahwa dalam waktu singkat satu tahun lebih, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar dolar AS. Kemajuan teknologi AI utama membawa keuntungan yang jelas, setelah peluncuran model teks ke video Sora oleh OpenAI, harga rata-rata sektor AI meningkat 151%. Efek AI juga menjangkau salah satu sektor pengumpulan dana kripto, Meme: konsep MemeCoin GOAT sebagai AI Agent pertama dengan cepat terkenal dan mendapatkan valuasi 1,4 miliar dolar AS, berhasil memicu gelombang Meme AI.

Tentu saja, penelitian dan topik mengenai AI+Web3 juga sedang hangat, dari AI+Depin hingga AI Memecoin, hingga saat ini AI Agent dan AI DAO, kecepatan perputaran narasi baru membuat perasaan FOMO sulit untuk diikuti.

Kombinasi istilah AI+Web3 yang penuh dengan uang panas, peluang, dan fantasi masa depan, tak pelak lagi dipandang sebagai pernikahan yang diatur oleh modal. Kita sulit membedakan di balik penampilan yang megah ini, apakah ini adalah arena para spekulan, atau malam menjelang ledakan fajar?

Untuk menjawab pertanyaan ini, kuncinya adalah berpikir: Apakah dengan adanya pihak lain akan menjadi lebih baik? Apakah bisa mendapatkan manfaat dari pola pihak lain? Artikel ini berusaha untuk melihat pola ini dengan berdiri di atas bahu para pendahulu: Bagaimana Web3 dapat berperan di setiap tahap tumpukan teknologi AI, dan apa yang dapat dibawa AI sebagai kehidupan baru untuk Web3?

Peluang Web3 di Bawah Tumpukan AI

Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model AI besar:

Model besar seperti otak manusia, pada tahap awal seperti bayi yang baru lahir, perlu mengamati dan mengumpulkan informasi eksternal dalam jumlah besar untuk memahami dunia, ini adalah tahap "pengumpulan" data. Karena komputer tidak memiliki banyak indera manusia, sebelum pelatihan, informasi yang tidak terlabel perlu diubah menjadi format yang dapat dipahami oleh komputer melalui "pra-pemrosesan".

Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", mirip dengan proses bayi yang secara bertahap memahami dan belajar tentang dunia luar, parameter model seperti kemampuan bahasa bayi yang terus disesuaikan. Konten pembelajaran dibagi menjadi bidang atau mendapatkan umpan balik melalui interaksi dengan manusia dan kemudian diperbaiki, memasuki tahap "penyesuaian halus".

Setelah anak-anak tumbuh dan belajar berbicara, mereka dapat memahami makna dalam percakapan baru dan mengekspresikan perasaan serta pemikiran, mirip dengan "penalaran" pada model AI besar, di mana model dapat melakukan analisis prediktif terhadap input bahasa dan teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan memecahkan masalah melalui kemampuan bahasa, mirip dengan bagaimana model AI besar diterapkan pada berbagai tugas spesifik selama fase penalaran setelah dilatih, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.

AI Agent lebih dekat dengan bentuk berikutnya dari model besar - dapat menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan menggunakan alat untuk berinteraksi dengan dunia.

Untuk mengatasi titik sakit di berbagai tumpukan AI, Web3 saat ini telah membentuk ekosistem yang saling terhubung dan multilevel, mencakup setiap tahap proses model AI.

AI+Web3:Menara dan Lapangan

Lapisan dasar: Airbnb untuk daya komputasi dan data

Kekuatan Penghitungan

Saat ini, salah satu biaya tertinggi AI adalah kekuatan komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi.

Misalnya, LLAMA3 dari Meta membutuhkan 16.000 NVIDIA H100GPU selama 30 hari untuk menyelesaikan pelatihan. H100 versi 80GB memiliki harga satuan 30.000-40.000 USD, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta USD (GPU + chip jaringan), dan konsumsi energi pelatihan bulanan mencapai 1,6 miliar kWh, dengan pengeluaran energi hampir 20 juta USD.

Pelepasan daya komputasi AI juga merupakan bidang pertama Web3 yang berinteraksi dengan AI—DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Situs data DePin Ninja telah mencantumkan lebih dari 1400 proyek, proyek berbagi daya GPU yang terwakili termasuk io.net, Aethir, Akash, Render Network, dan lainnya.

Logika utamanya adalah: platform memungkinkan pemilik sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi secara terdesentralisasi tanpa perlu izin, melalui pasar online mirip Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang belum terpakai, pengguna akhir mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah; pada saat yang sama, mekanisme staking memastikan bahwa penyedia sumber daya akan mendapatkan sanksi yang sesuai jika mereka melanggar kontrol kualitas atau mengganggu jaringan.

Ciri-ciri termasuk:

  • Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia utamanya adalah pusat data kecil dan menengah independen pihak ketiga, operator sumber daya berlebih dari tambang kripto, serta perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin tambang FileCoin dan ETH. Beberapa proyek berfokus pada perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.

  • Pasar ekor panjang yang mengarah pada kecerdasan buatan a. Aspek teknis: Pasar daya komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data GPU dengan skala cluster yang sangat besar, sementara inferensi memiliki tuntutan yang relatif lebih rendah terhadap kinerja komputasi GPU, seperti Aethir yang fokus pada rendering latensi rendah dan aplikasi inferensi AI. b. Pihak permintaan: Pihak dengan kekuatan komputasi kecil hingga menengah tidak akan melatih model besar mereka sendiri secara terpisah, melainkan hanya memilih untuk mengoptimalkan dan menyesuaikan model-model besar yang teratas. Skenario-skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.

  • Kepemilikan yang terdesentralisasi: Makna teknologi blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kendali atas sumber daya, dapat disesuaikan dengan kebutuhan, dan sekaligus mendapatkan keuntungan.

Data

Data adalah fondasi AI. Tanpa data, perhitungan bagaikan ilalang yang tidak ada gunanya. Hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan penampilan kemanusiaan. Saat ini, masalah kebutuhan data AI terutama terfokus pada empat aspek berikut:

  • Ketergantungan data: Pelatihan model AI bergantung pada input data yang sangat besar. Data publik menunjukkan bahwa OpenAI melatih GPT-4 dengan jumlah parameter mencapai triliunan.

  • Kualitas data: Dengan kombinasi AI dan berbagai industri, ketepatan waktu data, keragaman, spesialisasi data vertikal, serta sumber data baru seperti pengambilan emosi media sosial memberikan tuntutan baru terhadap kualitasnya.

  • Masalah privasi dan kepatuhan: Negara-negara dan perusahaan-perusahaan mulai menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengumpulan kumpulan data.

  • Biaya pemrosesan data yang tinggi: volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya penelitian dan pengembangan perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.

Saat ini, solusi web3 terwujud dalam empat aspek berikut:

  1. Pengumpulan data: Data dunia nyata yang disediakan secara gratis sedang cepat habis, pengeluaran perusahaan AI untuk membayar data meningkat setiap tahun. Namun, pengeluaran ini tidak kembali kepada para kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data, seperti Reddit yang menghasilkan total pendapatan $203 juta melalui perjanjian lisensi data dengan perusahaan AI.

Membiarkan pengguna yang benar-benar berkontribusi juga terlibat dalam penciptaan nilai yang dibawa oleh data, serta memperoleh data yang lebih pribadi dan lebih bernilai dengan cara biaya rendah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.

  • Grass adalah lapisan data dan jaringan terdesentralisasi, pengguna dapat menjalankan node Grass untuk menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token.

  • Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi (seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dll.) ke DLP tertentu dan dengan fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakannya.

  • Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori di X dan @PublicAI untuk melakukan pengumpulan data.

  1. Pra-pemrosesan data: Dalam proses pengolahan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, perlu dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, yang melibatkan tugas berulang seperti normalisasi, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit tahap manual dalam industri AI, yang telah melahirkan profesi pelabelan data, seiring dengan meningkatnya kebutuhan model terhadap kualitas data, ambang batas untuk pelabelan data juga meningkat, dan tugas ini secara alami cocok dengan mekanisme insentif terdesentralisasi Web3.
  • Grass dan OpenLayer sedang mempertimbangkan untuk menambahkan tahap penting ini yaitu penandaan data.

  • Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh imbalan dengan menyediakan data yang diberi label, komentar, atau bentuk masukan lainnya.

  • Proyek penandaan data Sapien akan menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.

  1. Privasi dan Keamanan Data: Perlu dijelaskan bahwa privasi data dan keamanan adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sedangkan keamanan data melindungi informasi data dari akses, kerusakan, dan pencurian yang tidak sah. Dengan demikian, keuntungan teknologi privasi Web3 dan potensi aplikasi tercermin dalam dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu berbagi data mentah.

Teknologi privasi yang cukup umum di Web3 saat ini meliputi:

  • Lingkungan Eksekusi Terpercaya ( TEE ), seperti Super Protocol.

  • Enkripsi Homomorfik Penuh (FHE), seperti BasedAI, Fhenix.io, atau Inco Network.

  • Teknologi zero-knowledge (zk), seperti Protokol Reclaim yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.

Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, tantangan saat ini adalah biaya komputasi yang terlalu tinggi, contohnya:

  • Kerangka zkML EZKL membutuhkan waktu sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.

  • Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.

  1. Penyimpanan Data: Setelah mendapatkan data, diperlukan tempat untuk menyimpan data di blockchain, serta LLM yang dihasilkan dari data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, sebelum peningkatan Danksharding di Ethereum, throughput-nya adalah 0,08MB. Sementara itu, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data antara 50 hingga 100GB per detik. Perbedaan besaran ini membuat solusi yang ada di blockchain tidak mampu menghadapi "aplikasi AI yang intensif sumber daya".
  • 0g.AI adalah proyek perwakilan dalam kategori ini. Ini adalah solusi penyimpanan terpusat yang dirancang untuk memenuhi kebutuhan kinerja tinggi AI, dengan fitur kunci termasuk: kinerja tinggi dan skalabilitas, mendukung pengunggahan dan pengunduhan dataset besar dengan cepat melalui teknologi sharding dan erasure coding, dengan kecepatan transfer data mendekati 5GB per detik.

Middleware: Pelatihan dan Inferensi Model

Pasar terdesentralisasi model sumber terbuka

Polemik mengenai apakah model AI harus bersifat tertutup atau terbuka tidak pernah hilang. Inovasi kolektif yang dibawa oleh model sumber terbuka adalah keunggulan yang tidak dapat dibandingkan dengan model tertutup. Namun, bagaimana model sumber terbuka dapat meningkatkan motivasi pengembang tanpa adanya model profitabilitas? Ini adalah arah yang patut dipikirkan. Pendiri Baidu, Li Yanhong, pernah menyatakan pada bulan April tahun ini, "Model sumber terbuka akan semakin tertinggal."

Sehubungan dengan itu, Web3 mengusulkan kemungkinan pasar model sumber terbuka terdesentralisasi, yaitu melakukan tokenisasi pada model itu sendiri, mempertahankan proporsi tertentu token untuk tim, dan mengarahkan sebagian aliran pendapatan masa depan model tersebut kepada pemegang token.

  • Protokol Bittensor membangun pasar P2P untuk model sumber terbuka, terdiri dari puluhan "sub-jaringan", di mana penyedia sumber daya (komputasi, pengumpulan/data penyimpanan, talenta pembelajaran mesin) bersaing satu sama lain untuk memenuhi tujuan pemilik sub-jaringan tertentu, sub-jaringan dapat berinteraksi dan saling belajar, menghasilkan kecerdasan yang lebih kuat. Hadiah dibagikan melalui pemungutan suara komunitas dan didistribusikan lebih lanjut berdasarkan kinerja kompetisi.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
  • Hadiah
  • 6
  • Bagikan
Komentar
0/400
metaverse_hermitvip
· 15jam yang lalu
Mendapatkan uang, kan? Tidak memalukan.
Lihat AsliBalas0
OnchainHolmesvip
· 15jam yang lalu
Ah, gelombang spekulasi ini datang lagi.
Lihat AsliBalas0
RektRecordervip
· 16jam yang lalu
Modal kembali mencium aroma suckers.
Lihat AsliBalas0
SilentObservervip
· 16jam yang lalu
Gelombang AI ini benar-benar kuat.
Lihat AsliBalas0
GasFeeCrybabyvip
· 16jam yang lalu
Kapan bisa turun ya
Lihat AsliBalas0
SchroedingerMinervip
· 16jam yang lalu
Blockchain rempah-rempah Renungkan Penambang yang bahagia
Lihat AsliBalas0
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)