Proyek Web3 dengan konsep AI menjadi target penggalangan dana di pasar primer dan sekunder.
Kesempatan Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang------melintasi data, penyimpanan, dan komputasi; sementara itu, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan dalam keuangan on-chain (pembayaran kripto, perdagangan, analisis data) serta pengembangan pendukung.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 menjangkau lebih luas.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seakan ditekan tombol percepat, sayap kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengangkat arus besar di sisi lain Web3.
Dengan dukungan konsep AI, pendanaan di pasar kripto yang melambat menunjukkan peningkatan yang jelas. Media mencatat, hanya dalam paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang telah menyelesaikan pendanaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS dalam putaran A.
Pasar sekunder semakin berkembang pesat, data dari suatu situs menunjukkan bahwa dalam waktu hanya lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI utama membawa manfaat yang jelas, setelah peluncuran model teks ke video Sora dari suatu perusahaan, harga rata-rata di sektor AI meningkat sebesar 151%; efek AI juga menyebar ke salah satu sektor yang menarik perhatian dalam cryptocurrency, Meme: konsep MemeCoin AI Agent pertama ------ GOAT dengan cepat menjadi terkenal dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren Meme AI.
Penelitian dan topik tentang AI+Web3 juga sedang hangat, mulai dari AI+Depin hingga AI Memecoin, dan sekarang AI Agent serta AI DAO, emosi FOMO jelas tidak dapat mengikuti kecepatan pergantian narasi baru.
AI+Web3, kombinasi istilah yang penuh dengan uang panas, peluang, dan fantasi masa depan ini, tidak dapat dihindari dipandang sebagai pernikahan yang diatur oleh modal, kita tampaknya sulit untuk membedakan di bawah jubah megah ini, apakah ini benar-benar arena para spekulan, ataukah ini adalah malam sebelum ledakan fajar?
Untuk menjawab pertanyaan ini, sebuah pemikiran yang penting bagi kedua belah pihak adalah, apakah kehadiran satu sama lain akan membawa perbaikan? Apakah ada manfaat yang bisa diambil dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk melihat pola ini dari sudut pandang para pendahulu: bagaimana Web3 dapat berperan di setiap tahap tumpukan teknologi AI, dan apa yang bisa diberikan AI untuk membawa kehidupan baru ke Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model besar AI:
Dengan bahasa yang lebih sederhana, keseluruhan prosesnya dapat diungkapkan sebagai berikut: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, yang perlu mengamati dan menyerap informasi luar yang sangat banyak untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki indera seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diproses melalui "pra-pemrosesan" untuk mengubahnya menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model mirip dengan kemampuan bahasa bayi yang terus disesuaikan selama proses belajar. Ketika konten yang dipelajari mulai dibagi ke dalam disiplin ilmu, atau mendapatkan umpan balik dan perbaikan melalui komunikasi dengan orang lain, maka masuk ke tahap "penyesuaian halus" model besar.
Ketika anak-anak tumbuh dan belajar berbicara, mereka dapat memahami arti dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis masukan bahasa dan teks yang baru. Bayi mengekspresikan perasaan melalui kemampuan berbahasa, mendeskripsikan objek, dan menyelesaikan berbagai masalah. Ini juga mirip dengan penerapan model AI besar setelah selesai dilatih dalam tahap penalaran untuk berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent semakin mendekati bentuk berikutnya dari model besar------kemampuan untuk secara mandiri melaksanakan tugas dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik sakit AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem multi-lapis yang saling terhubung, mencakup semua tahap proses model AI.
Satu, Lapisan Dasar: Daya Komputasi dan Data dari Airbnb
Kekuatan Komputasi
Saat ini, salah satu biaya tertinggi untuk AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi model.
Salah satu contohnya adalah, model tertentu dari suatu perusahaan memerlukan 16.000 unit GPU model tertentu yang diproduksi oleh perusahaan tersebut (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi.) untuk menyelesaikan pelatihan dalam 30 hari. Harga per unit untuk versi 80GB berkisar antara 30.000 hingga 40.000 dolar, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt-jam, dengan pengeluaran energi hampir 20 juta dolar per bulan.
Untuk pelepasan daya komputasi AI, ini adalah salah satu bidang paling awal di mana Web3 berinteraksi dengan AI------DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, sebuah situs data telah mencantumkan lebih dari 1400 proyek, di mana proyek berbagi daya GPU yang terkemuka termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka dengan cara terdesentralisasi tanpa izin, melalui pasar online yang mirip dengan Uber atau Airbnb antara pembeli dan penjual, meningkatkan penggunaan sumber daya GPU yang belum dimanfaatkan secara maksimal, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dan lebih murah; sementara itu, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran mekanisme pengendalian kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah pusat data kecil dan menengah independen pihak ketiga, operator sumber daya kelebihan dari pertambangan kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin penambangan FileCoin dan ETH. Saat ini juga ada proyek yang berusaha untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. "Dari sisi teknologi", pasar kekuatan terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kapasitas pemrosesan data yang dibawa oleh GPU dengan skala kluster yang sangat besar, sementara inferensi memiliki kebutuhan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang berfokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan" pihak pengguna dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya akan memilih untuk mengoptimalkan dan menyempurnakan di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Kepemilikan terdesentralisasi: Signifikansi teknologi blockchain adalah bahwa pemilik sumber daya selalu mempertahankan kontrol atas sumber daya tersebut, dapat menyesuaikan secara fleksibel berdasarkan permintaan, sambil mendapatkan keuntungan.
Data
Data adalah fondasi dari AI. Tanpa data, perhitungan seperti alang-alang yang tidak berguna, dan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output dari model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai-nilai dan perilaku kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:
Kelaparan data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa perusahaan tertentu melatih parameter model tertentu hingga mencapai tingkat triliun.
Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keragaman data, spesialisasi data vertikal, serta pengambilan sumber data baru seperti emosi media sosial juga telah menuntut standar baru terhadap kualitasnya.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya penelitian dan pengembangan perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi web3 tercermin dalam empat aspek berikut:
Pengumpulan data: Penyediaan data dunia nyata yang dapat diambil secara gratis semakin menipis, pengeluaran perusahaan AI untuk data meningkat setiap tahun. Namun, pada saat yang sama, pengeluaran ini tidak kembali kepada kontributor data yang sebenarnya, platform sepenuhnya menikmati penciptaan nilai yang dihasilkan oleh data, seperti sebuah platform yang menghasilkan total pendapatan sebesar 203 juta dolar AS melalui perjanjian lisensi data dengan perusahaan AI.
Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk juga terlibat dalam penciptaan nilai yang dihasilkan oleh data, serta mendapatkan data yang lebih pribadi dan bernilai dengan biaya rendah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.
Grass adalah lapisan data dan jaringan terdesentralisasi, pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan hadiah token;
Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan menjelajah, aktivitas media sosial, dll.) ke DLP tertentu dan secara fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;
Di PublicAI, pengguna dapat menggunakan #AI 或#Web3 sebagai label kategori dan @PublicAI untuk melakukan pengumpulan data.
Pra-pemrosesan data: Dalam proses pemrosesan data AI, data yang dikumpulkan biasanya berisik dan mengandung kesalahan, sehingga harus dibersihkan dan diubah menjadi format yang dapat digunakan sebelum melatih model, melibatkan tugas standar, penyaringan, dan penanganan nilai yang hilang. Tahap ini adalah salah satu dari sedikit tahap manual di industri AI, yang telah melahirkan industri penandaan data. Seiring dengan meningkatnya tuntutan kualitas data oleh model, ambang batas untuk penandaan data juga meningkat, dan tugas ini secara alami cocok untuk mekanisme insentif terdesentralisasi Web3.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk bergabung dalam tahap kunci penandaan data ini.
Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh hadiah dengan memberikan data yang diberi label, komentar, atau bentuk masukan lainnya.
Proyek pelabelan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Privasi dan Keamanan Data: Yang perlu dijelaskan adalah bahwa privasi data dan keamanan adalah dua konsep yang berbeda. Privasi data melibatkan pengolahan data sensitif, sementara keamanan data melindungi informasi dari akses, penghancuran, dan pencurian yang tidak sah. Dengan demikian, keunggulan teknologi privasi Web3 dan potensi skenario aplikasinya tercermin dalam dua aspek: (1) Pelatihan data sensitif; (2) Kolaborasi data: Beberapa pemilik data dapat berpartisipasi dalam pelatihan AI secara bersama-sama tanpa perlu berbagi data asli mereka.
Teknologi privasi Web3 yang umum saat ini meliputi:
Lingkungan Eksekusi Terpercaya(TEE), seperti Protokol Super;
Enkripsi homomorfik sepenuhnya (FHE), seperti BasedAI, Fhenix.io, atau Inco Network;
Teknologi zero-knowledge (zk), seperti Reclaim Protocol yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu kendala saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah:
Kerangka zkML EZKL membutuhkan sekitar 80 menit
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
7 Suka
Hadiah
7
3
Bagikan
Komentar
0/400
shadowy_supercoder
· 17jam yang lalu
Teknologi harus memberdayakan secara setara
Lihat AsliBalas0
MEVHunter
· 17jam yang lalu
Prediksi berani akan sangat populer
Lihat AsliBalas0
LightningAllInHero
· 17jam yang lalu
Dua pedang yang bersatu pasti akan menjadi alat yang hebat
Web3 teknologi dan AI berkembang secara kolaboratif: membuka peluang baru untuk sumber daya Daya Komputasi dan nilai data.
AI+Web3: Menara dan Alun-Alun
TL;DR
Proyek Web3 dengan konsep AI menjadi target penggalangan dana di pasar primer dan sekunder.
Kesempatan Web3 di industri AI terletak pada: menggunakan insentif terdistribusi untuk mengoordinasikan pasokan potensial di ekor panjang------melintasi data, penyimpanan, dan komputasi; sementara itu, membangun model sumber terbuka serta pasar terdesentralisasi untuk AI Agent.
AI di industri Web3 terutama digunakan dalam keuangan on-chain (pembayaran kripto, perdagangan, analisis data) serta pengembangan pendukung.
Kegunaan AI+Web3 tercermin dalam saling melengkapi keduanya: Web3 diharapkan dapat melawan sentralisasi AI, dan AI diharapkan dapat membantu Web3 menjangkau lebih luas.
Pendahuluan
Dalam dua tahun terakhir, perkembangan AI seakan ditekan tombol percepat, sayap kupu-kupu yang dipicu oleh Chatgpt tidak hanya membuka dunia baru kecerdasan buatan generatif, tetapi juga mengangkat arus besar di sisi lain Web3.
Dengan dukungan konsep AI, pendanaan di pasar kripto yang melambat menunjukkan peningkatan yang jelas. Media mencatat, hanya dalam paruh pertama tahun 2024, terdapat 64 proyek Web3+AI yang telah menyelesaikan pendanaan, dengan sistem operasi berbasis kecerdasan buatan Zyber365 mencapai jumlah pendanaan tertinggi sebesar 100 juta dolar AS dalam putaran A.
Pasar sekunder semakin berkembang pesat, data dari suatu situs menunjukkan bahwa dalam waktu hanya lebih dari satu tahun, total kapitalisasi pasar jalur AI telah mencapai 48,5 miliar dolar AS, dengan volume perdagangan dalam 24 jam mendekati 8,6 miliar dolar AS; kemajuan teknologi AI utama membawa manfaat yang jelas, setelah peluncuran model teks ke video Sora dari suatu perusahaan, harga rata-rata di sektor AI meningkat sebesar 151%; efek AI juga menyebar ke salah satu sektor yang menarik perhatian dalam cryptocurrency, Meme: konsep MemeCoin AI Agent pertama ------ GOAT dengan cepat menjadi terkenal dan meraih valuasi 1,4 miliar dolar AS, berhasil memicu tren Meme AI.
Penelitian dan topik tentang AI+Web3 juga sedang hangat, mulai dari AI+Depin hingga AI Memecoin, dan sekarang AI Agent serta AI DAO, emosi FOMO jelas tidak dapat mengikuti kecepatan pergantian narasi baru.
AI+Web3, kombinasi istilah yang penuh dengan uang panas, peluang, dan fantasi masa depan ini, tidak dapat dihindari dipandang sebagai pernikahan yang diatur oleh modal, kita tampaknya sulit untuk membedakan di bawah jubah megah ini, apakah ini benar-benar arena para spekulan, ataukah ini adalah malam sebelum ledakan fajar?
Untuk menjawab pertanyaan ini, sebuah pemikiran yang penting bagi kedua belah pihak adalah, apakah kehadiran satu sama lain akan membawa perbaikan? Apakah ada manfaat yang bisa diambil dari pola satu sama lain? Dalam artikel ini, kami juga berusaha untuk melihat pola ini dari sudut pandang para pendahulu: bagaimana Web3 dapat berperan di setiap tahap tumpukan teknologi AI, dan apa yang bisa diberikan AI untuk membawa kehidupan baru ke Web3?
Bagian.1 Apa peluang Web3 di bawah tumpukan AI?
Sebelum membahas topik ini, kita perlu memahami tumpukan teknologi model besar AI:
Dengan bahasa yang lebih sederhana, keseluruhan prosesnya dapat diungkapkan sebagai berikut: "Model besar" seperti otak manusia, pada tahap awal, otak ini milik bayi yang baru lahir, yang perlu mengamati dan menyerap informasi luar yang sangat banyak untuk memahami dunia ini, inilah tahap "pengumpulan" data; karena komputer tidak memiliki indera seperti penglihatan dan pendengaran manusia, sebelum pelatihan, informasi besar yang tidak terlabel dari luar perlu diproses melalui "pra-pemrosesan" untuk mengubahnya menjadi format informasi yang dapat dipahami dan digunakan oleh komputer.
Setelah memasukkan data, AI membangun model yang memiliki kemampuan pemahaman dan prediksi melalui "pelatihan", yang dapat dianggap sebagai proses di mana bayi secara bertahap memahami dan belajar tentang dunia luar. Parameter model mirip dengan kemampuan bahasa bayi yang terus disesuaikan selama proses belajar. Ketika konten yang dipelajari mulai dibagi ke dalam disiplin ilmu, atau mendapatkan umpan balik dan perbaikan melalui komunikasi dengan orang lain, maka masuk ke tahap "penyesuaian halus" model besar.
Ketika anak-anak tumbuh dan belajar berbicara, mereka dapat memahami arti dalam percakapan baru dan mengekspresikan perasaan serta pemikiran mereka. Tahap ini mirip dengan "penalaran" pada model AI besar, di mana model dapat memprediksi dan menganalisis masukan bahasa dan teks yang baru. Bayi mengekspresikan perasaan melalui kemampuan berbahasa, mendeskripsikan objek, dan menyelesaikan berbagai masalah. Ini juga mirip dengan penerapan model AI besar setelah selesai dilatih dalam tahap penalaran untuk berbagai tugas spesifik, seperti klasifikasi gambar, pengenalan suara, dan lain-lain.
AI Agent semakin mendekati bentuk berikutnya dari model besar------kemampuan untuk secara mandiri melaksanakan tugas dan mengejar tujuan yang kompleks, tidak hanya memiliki kemampuan berpikir, tetapi juga dapat mengingat, merencanakan, dan dapat menggunakan alat untuk berinteraksi dengan dunia.
Saat ini, terkait dengan titik sakit AI di berbagai tumpukan, Web3 saat ini telah membentuk ekosistem multi-lapis yang saling terhubung, mencakup semua tahap proses model AI.
Satu, Lapisan Dasar: Daya Komputasi dan Data dari Airbnb
Kekuatan Komputasi
Saat ini, salah satu biaya tertinggi untuk AI adalah daya komputasi dan energi yang diperlukan untuk melatih model dan melakukan inferensi model.
Salah satu contohnya adalah, model tertentu dari suatu perusahaan memerlukan 16.000 unit GPU model tertentu yang diproduksi oleh perusahaan tersebut (ini adalah unit pemrosesan grafis kelas atas yang dirancang khusus untuk beban kerja kecerdasan buatan dan komputasi berkinerja tinggi.) untuk menyelesaikan pelatihan dalam 30 hari. Harga per unit untuk versi 80GB berkisar antara 30.000 hingga 40.000 dolar, yang memerlukan investasi perangkat keras komputasi sebesar 400-700 juta dolar (GPU + chip jaringan), sementara pelatihan bulanan memerlukan konsumsi 1,6 miliar kilowatt-jam, dengan pengeluaran energi hampir 20 juta dolar per bulan.
Untuk pelepasan daya komputasi AI, ini adalah salah satu bidang paling awal di mana Web3 berinteraksi dengan AI------DePin (Jaringan Infrastruktur Fisik Terdesentralisasi). Saat ini, sebuah situs data telah mencantumkan lebih dari 1400 proyek, di mana proyek berbagi daya GPU yang terkemuka termasuk io.net, Aethir, Akash, Render Network, dan lain-lain.
Logika utamanya adalah: platform memungkinkan individu atau entitas yang memiliki sumber daya GPU yang tidak terpakai untuk menyumbangkan kemampuan komputasi mereka dengan cara terdesentralisasi tanpa izin, melalui pasar online yang mirip dengan Uber atau Airbnb antara pembeli dan penjual, meningkatkan penggunaan sumber daya GPU yang belum dimanfaatkan secara maksimal, dan pengguna akhir juga mendapatkan sumber daya komputasi yang efisien dan lebih murah; sementara itu, mekanisme staking juga memastikan bahwa jika terjadi pelanggaran mekanisme pengendalian kualitas atau gangguan jaringan, penyedia sumber daya akan mendapatkan hukuman yang sesuai.
Ciri-cirinya adalah:
Mengumpulkan sumber daya GPU yang tidak terpakai: Pihak penyedia terutama adalah pusat data kecil dan menengah independen pihak ketiga, operator sumber daya kelebihan dari pertambangan kripto, dan perangkat keras penambangan dengan mekanisme konsensus PoS, seperti mesin penambangan FileCoin dan ETH. Saat ini juga ada proyek yang berusaha untuk memulai perangkat dengan ambang batas yang lebih rendah, seperti exolab yang memanfaatkan MacBook, iPhone, iPad, dan perangkat lokal lainnya untuk membangun jaringan komputasi untuk inferensi model besar.
Menghadapi pasar ekor panjang dari kekuatan AI:
a. "Dari sisi teknologi", pasar kekuatan terdesentralisasi lebih cocok untuk langkah inferensi. Pelatihan lebih bergantung pada kapasitas pemrosesan data yang dibawa oleh GPU dengan skala kluster yang sangat besar, sementara inferensi memiliki kebutuhan kinerja komputasi GPU yang relatif lebih rendah, seperti Aethir yang berfokus pada pekerjaan rendering dengan latensi rendah dan aplikasi inferensi AI.
b. "Dari sisi permintaan" pihak pengguna dengan kekuatan komputasi kecil tidak akan melatih model besar mereka sendiri secara terpisah, tetapi hanya akan memilih untuk mengoptimalkan dan menyempurnakan di sekitar beberapa model besar terkemuka, dan semua skenario ini secara alami cocok untuk sumber daya komputasi terdistribusi yang tidak terpakai.
Data
Data adalah fondasi dari AI. Tanpa data, perhitungan seperti alang-alang yang tidak berguna, dan hubungan antara data dan model seperti pepatah "Garbage in, Garbage out", jumlah data dan kualitas input menentukan kualitas output dari model akhir. Untuk pelatihan model AI saat ini, data menentukan kemampuan bahasa model, kemampuan pemahaman, bahkan nilai-nilai dan perilaku kemanusiaan. Saat ini, tantangan kebutuhan data AI terutama terfokus pada empat aspek berikut:
Kelaparan data: Pelatihan model AI bergantung pada input data yang besar. Data publik menunjukkan bahwa perusahaan tertentu melatih parameter model tertentu hingga mencapai tingkat triliun.
Kualitas data: Dengan penggabungan AI dan berbagai industri, ketepatan waktu data, keragaman data, spesialisasi data vertikal, serta pengambilan sumber data baru seperti emosi media sosial juga telah menuntut standar baru terhadap kualitasnya.
Masalah privasi dan kepatuhan: Saat ini, berbagai negara dan perusahaan semakin menyadari pentingnya kumpulan data berkualitas, dan sedang membatasi pengambilan kumpulan data.
Biaya pemrosesan data yang tinggi: Volume data besar, proses pemrosesan yang kompleks. Data publik menunjukkan bahwa lebih dari 30% biaya penelitian dan pengembangan perusahaan AI digunakan untuk pengumpulan dan pemrosesan data dasar.
Saat ini, solusi web3 tercermin dalam empat aspek berikut:
Memberikan kesempatan kepada pengguna yang benar-benar berkontribusi untuk juga terlibat dalam penciptaan nilai yang dihasilkan oleh data, serta mendapatkan data yang lebih pribadi dan bernilai dengan biaya rendah melalui jaringan terdistribusi dan mekanisme insentif, adalah visi Web3.
Grass adalah lapisan data dan jaringan terdesentralisasi, pengguna dapat menjalankan node Grass, menyumbangkan bandwidth yang tidak terpakai dan lalu lintas relai untuk menangkap data waktu nyata dari seluruh internet, dan mendapatkan hadiah token;
Vana memperkenalkan konsep kolam likuiditas data yang unik (DLP), di mana pengguna dapat mengunggah data pribadi mereka (seperti riwayat belanja, kebiasaan menjelajah, aktivitas media sosial, dll.) ke DLP tertentu dan secara fleksibel memilih apakah akan memberikan izin kepada pihak ketiga tertentu untuk menggunakan data tersebut;
Di PublicAI, pengguna dapat menggunakan #AI 或#Web3 sebagai label kategori dan @PublicAI untuk melakukan pengumpulan data.
Saat ini, Grass dan OpenLayer sedang mempertimbangkan untuk bergabung dalam tahap kunci penandaan data ini.
Synesis mengusulkan konsep "Train2earn", menekankan kualitas data, pengguna dapat memperoleh hadiah dengan memberikan data yang diberi label, komentar, atau bentuk masukan lainnya.
Proyek pelabelan data Sapien menggamifikasi tugas penandaan dan memungkinkan pengguna untuk mempertaruhkan poin untuk mendapatkan lebih banyak poin.
Teknologi privasi Web3 yang umum saat ini meliputi:
Lingkungan Eksekusi Terpercaya(TEE), seperti Protokol Super;
Enkripsi homomorfik sepenuhnya (FHE), seperti BasedAI, Fhenix.io, atau Inco Network;
Teknologi zero-knowledge (zk), seperti Reclaim Protocol yang menggunakan teknologi zkTLS, menghasilkan bukti zero-knowledge untuk lalu lintas HTTPS, memungkinkan pengguna untuk mengimpor data aktivitas, reputasi, dan identitas dari situs web eksternal dengan aman tanpa mengungkapkan informasi sensitif.
Namun, saat ini bidang ini masih berada di tahap awal, sebagian besar proyek masih dalam eksplorasi, salah satu kendala saat ini adalah biaya komputasi yang terlalu tinggi, beberapa contohnya adalah: