Tren Perpaduan AI+Web3: Daya Komputasi Data Desentralisasi Menjadi Fokus

AI+Web3: Menara dan Lapangan

TL;DR

  1. Proyek Web3 berbasis AI menjadi target akuisisi di pasar primer dan sekunder.

  2. Peluang Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang, lintas data, penyimpanan, dan komputasi; pada saat yang sama, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.

  3. AI di industri Web3 terutama digunakan untuk keuangan on-chain ( pembayaran crypto, perdagangan, analisis data ) dan pengembangan bantuan.

  4. Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 untuk meluas.

AI+Web3: Menara dan Lapangan

Pendahuluan

Dalam dua tahun terakhir, perkembangan AI seolah-olah telah ditekan tombol percepatannya, efek kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengguncang arus di Web3 di sisi lain.

Dengan dukungan konsep AI, ada peningkatan yang jelas dalam pembiayaan pasar kripto yang melambat. Hanya dalam paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang telah menyelesaikan pembiayaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pembiayaan tertinggi sebesar 100 juta dolar AS pada putaran A.

Pasar sekunder semakin berkembang, data dari situs agregator kripto menunjukkan bahwa dalam waktu sedikit lebih dari setahun, total kapitalisasi pasar di jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI yang utama membawa keuntungan yang jelas, setelah peluncuran model teks ke video Sora dari OpenAI, harga rata-rata di sektor AI meningkat sebesar 151%; efek AI juga menyebar ke salah satu sektor pengumpulan dana cryptocurrency yaitu Meme: konsep MemeCoin AI Agent pertama------GOAT dengan cepat menjadi populer dan mencapai valuasi 1,4 miliar dolar AS, berhasil memicu tren Meme AI.

Penelitian dan topik tentang AI+Web3 juga sangat panas, dari AI+Depin hingga AI Memecoin dan saat ini AI Agent dan AI DAO, emosi FOMO jelas tidak dapat mengikuti kecepatan rotasi narasi baru.

AI+Web3, kombinasi istilah yang dipenuhi dengan uang panas, peluang, dan fantasi masa depan ini, tidak dapat dihindari dipandang sebagai pernikahan yang diatur oleh modal. Sepertinya kita sulit untuk membedakan di balik jubah megah ini, apakah ini adalah arena para spekulan, atau malam sebelum terjadinya ledakan fajar?

Untuk menjawab pertanyaan ini, satu pemikiran yang krusial bagi kedua belah pihak adalah, apakah keberadaan satu sama lain akan membuatnya lebih baik? Apakah ada manfaat yang bisa didapat dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk melihat pola ini dari sudut pandang pendahulu: bagaimana Web3 dapat berperan di berbagai aspek tumpukan teknologi AI, dan apa yang bisa diberikan AI untuk membawa kehidupan baru ke Web3?

Bagian.1 Apa peluang Web3 di bawah tumpukan AI?

Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model besar AI:

Gunakan bahasa yang lebih sederhana untuk menjelaskan keseluruhan proses: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, yang perlu mengamati dan menyerap informasi luar yang sangat banyak untuk memahami dunia ini, yaitu tahap "pengumpulan" data; karena komputer tidak memiliki indera manusia seperti penglihatan dan pendengaran, sebelum pelatihan, informasi luar yang besar dan tidak terlabel perlu diubah melalui "pra-pemrosesan" menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.

Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model seperti kemampuan bahasa bayi yang terus disesuaikan selama proses pembelajaran. Ketika konten yang dipelajari mulai terpecah menjadi beberapa disiplin, atau mendapatkan umpan balik dari komunikasi dengan orang lain dan melakukan perbaikan, maka memasuki tahap "penyesuaian halus" model besar.

Setelah anak-anak tumbuh dan belajar berbicara, mereka dapat memahami arti dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka. Tahap ini mirip dengan "penalaran" dari model AI besar, di mana model dapat memprediksi dan menganalisis input bahasa serta teks yang baru. Bayi mengekspresikan perasaan, mendeskripsikan objek, dan memecahkan berbagai masalah melalui kemampuan bahasa, yang juga mirip dengan penerapan model AI besar setelah selesai dilatih dan digunakan dalam tahap penalaran untuk berbagai tugas tertentu, seperti klasifikasi gambar dan pengenalan suara.

Sementara AI Agent cenderung menjadi bentuk berikutnya dari model besar ------ mampu menjalankan tugas secara mandiri dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan mampu menggunakan alat untuk berinteraksi dengan dunia.

Saat ini, terkait dengan titik sakit AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem yang berlapis-lapis dan saling terhubung, mencakup berbagai tahap proses model AI.

AI+Web3:Menara dan Lapangan

Satu, Lapisan Dasar: Airbnb untuk Kekuatan Komputasi dan Data

Kekuatan Komputasi

Saat ini, salah satu biaya tertinggi AI adalah daya komputasi dan energi yang dibutuhkan untuk melatih model dan model inferensi.

Salah satu contohnya adalah, LLAMA3 dari Meta membutuhkan 16.000 H100 GPU yang diproduksi oleh NVIDIA( yang merupakan unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi.) Memerlukan waktu 30 hari untuk menyelesaikan pelatihan. Harga satuan untuk versi 80GB berkisar antara 30.000 hingga 40.000 dolar AS, yang membutuhkan investasi perangkat keras komputasi sebesar 400-700 juta dolar AS( GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt jam, dengan pengeluaran energi hampir 20 juta dolar AS per bulan.

Untuk dekompresi kekuatan komputasi AI, ini adalah salah satu area awal di mana Web3 berinteraksi dengan AI------DePin( jaringan infrastruktur fisik terdesentralisasi) saat ini, sebuah situs data telah menampilkan lebih dari 1400 proyek, di mana proyek-proyek berbagi kekuatan GPU yang terwakili termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.

Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka secara terdesentralisasi tanpa izin, melalui pasar online untuk pembeli dan penjual yang mirip dengan Uber atau Airbnb, meningkatkan pemanfaatan sumber daya GPU yang belum dimanfaatkan secara maksimal, sehingga pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dengan biaya yang lebih rendah; pada saat yang sama, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran terhadap mekanisme kontrol kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan sanksi yang sesuai.

Ciri khasnya adalah:

  • Mengumpulkan sumber daya GPU yang menganggur: Pihak penyedia terutama adalah pusat data kecil dan menengah independen pihak ketiga, operator sumber daya komputasi yang berlebih dari tambang kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti FileCoin dan mesin tambang ETH. Saat ini juga ada proyek yang bertujuan untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk menjalankan inferensi model besar.

  • Menghadapi pasar ekor panjang dari kekuatan komputasi AI:

a. "Dari sisi teknologi", pasar komputasi terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kemampuan pemrosesan data yang diberikan oleh GPU dengan skala cluster yang sangat besar, sementara inferensi memiliki kebutuhan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang fokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.

b. "Dari sisi permintaan", peminta dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, melainkan hanya memilih untuk mengoptimalkan dan melakukan penyesuaian di sekitar beberapa model besar terkemuka, dan skenario-skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.

  • Kepemilikan terdesentralisasi: Makna teknis dari blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol mereka atas sumber daya, dapat menyesuaikan secara fleksibel berdasarkan permintaan, sambil mendapatkan keuntungan.

Data

Data adalah fondasi AI. Tanpa data, perhitungan seperti daun apung yang tidak berguna, dan hubungan antara data dan model mirip dengan pepatah "Garbage in, Garbage out", di mana jumlah data dan kualitas input menentukan kualitas output model akhir. Dalam pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan pandangan nilai dan penampilan kemanusiaan. Saat ini, dilema kebutuhan data AI terutama berfokus pada empat aspek berikut:

  • Keterbatasan Data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa OpenAI melatih GPT-4 dengan jumlah parameter yang mencapai level triliunan.

  • Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keberagaman data, profesionalisme data vertikal, serta masuknya sumber data baru seperti emosi media sosial juga telah mengajukan tuntutan baru terhadap kualitasnya.

  • Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan mulai membatasi pengambilan kumpulan data.

  • Biaya pemrosesan data yang tinggi: Jumlah data yang besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya R&D perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.

Saat ini, solusi web3 tercermin dalam empat aspek berikut:

  1. Pengumpulan data: Kemampuan untuk menyediakan data dunia nyata yang diambil secara gratis sedang cepat habis, pengeluaran perusahaan AI untuk data meningkat tahun demi tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali memberikan manfaat kepada para kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data, seperti suatu platform yang mencapai pendapatan total sebesar 203 juta dolar AS melalui perjanjian lisensi data yang ditandatangani dengan perusahaan AI.

Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk ikut serta dalam penciptaan nilai yang dihasilkan dari data, serta memperoleh data yang lebih pribadi dan bernilai dengan cara yang lebih murah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.

  • Grass adalah lapisan data dan jaringan terdesentralisasi, di mana pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan imbalan token;

  • Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi mereka ( seperti riwayat belanja, kebiasaan browsing, aktivitas media sosial, dan lainnya ) ke DLP tertentu, serta secara fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;

  • Di PublicAI, pengguna dapat menggunakan #AI或#Web3 sebagai label kategori di X dan @PublicAI untuk mengumpulkan data.

  1. Pra-pemrosesan data: Dalam proses pemrosesan data AI, karena data yang dikumpulkan biasanya berisik dan mengandung kesalahan, data tersebut harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, melibatkan standar, penyaringan, dan pengolahan nilai yang hilang yang berulang. Tahap ini adalah salah satu dari sedikit langkah manual dalam industri AI, yang telah melahirkan industri pelabelan data. Seiring meningkatnya tuntutan kualitas data oleh model, ambang batas untuk pelabelan data juga meningkat, dan tugas ini secara alami cocok untuk mekanisme insentif terdesentralisasi Web3.
  • Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk bergabung dalam tahap penting ini yaitu pelabelan data.

  • Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh hadiah dengan memberikan data yang ditandai, komentar, atau bentuk masukan lainnya.

  • Proyek penandaan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.

  1. Privasi dan Keamanan Data: Yang perlu dijelaskan adalah, privasi dan keamanan data adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sedangkan keamanan data melindungi informasi data dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi aplikasi terletak pada dua aspek: (1) pelatihan data sensitif; (2) kolaborasi data: beberapa pemilik data dapat berpartisipasi bersama dalam pelatihan AI tanpa perlu berbagi data asli mereka.

Teknologi privasi yang umum digunakan saat ini di Web3 meliputi:

  • Lingkungan Eksekusi Tepercaya ( TEE ), seperti Protokol Super;

  • Enkripsi Homomorfik Penuh ( FHE ), misalnya BasedAI, Fhenix.io atau Inco Network;

  • Teknologi zero-knowledge ( zk ), seperti Reclaim Protocol yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor aktivitas, reputasi, dan data identitas dari situs web eksternal secara aman, tanpa harus mengungkapkan informasi sensitif.

Namun, saat ini bidang ini masih berada pada tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu kendala saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:

  • Kerangka zkML EZKL memerlukan sekitar 80 menit untuk menghasilkan bukti model 1M-nanoGPT.

  • Menurut data Modulus Labs, biaya zkML lebih dari 1000 kali lipat dibandingkan dengan perhitungan murni.

  1. Penyimpanan data: Setelah memiliki data, diperlukan tempat untuk menyimpan data di blockchain, serta LLM yang dihasilkan dari data tersebut. Dengan ketersediaan data (DA) sebagai masalah inti, sebelum peningkatan Danksharding Ethereum, throughput-nya adalah 0,08MB. Sementara itu, pelatihan model AI dan inferensi waktu nyata biasanya memerlukan throughput data antara 50 hingga 100GB per detik. Selisih dalam skala ini membuat solusi blockchain yang ada menghadapi
Lihat Asli
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
  • Hadiah
  • 6
  • Bagikan
Komentar
0/400
TokenomicsTinfoilHatvip
· 8jam yang lalu
Sudah menggulung tanpa batas.
Lihat AsliBalas0
DataBartendervip
· 8jam yang lalu
Sekali lagi menggambar BTC.
Lihat AsliBalas0
0xSherlockvip
· 8jam yang lalu
Sakit… semua hanya memperdagangkan konsep.
Lihat AsliBalas0
PhantomMinervip
· 8jam yang lalu
Sekali lagi menggambar kue, siapa yang akan menerima?
Lihat AsliBalas0
LiquidatedTwicevip
· 8jam yang lalu
Wah, ini kan hanya sekedar hype template?
Lihat AsliBalas0
MetaverseMigrantvip
· 8jam yang lalu
Sekali lagi, jebakan untuk meminjam uang datang.
Lihat AsliBalas0
  • Sematkan
Perdagangkan Kripto Di Mana Saja Kapan Saja
qrCode
Pindai untuk mengunduh aplikasi Gate
Komunitas
Bahasa Indonesia
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)