OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong oleh Data dan Model yang Dapat Dikombinasikan dengan OP Stack + EigenDA sebagai Dasar
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang tidak dapat dipisahkan. Bidang Crypto AI telah mengalami jalur evolusi yang serupa dengan industri AI tradisional. Pada awal tahun 2024, pasar didominasi oleh proyek GPU terdesentralisasi, menekankan logika pertumbuhan yang kasar "menggabungkan daya komputasi". Setelah tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan transisi Crypto AI dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur kompleks, dengan biaya yang tinggi. Model bahasa khusus (SLM) sebagai paradigma penyetelan ringan, dibangun berdasarkan model sumber terbuka yang dikombinasikan dengan sejumlah kecil data profesional berkualitas tinggi, untuk membangun model di bidang tertentu dengan cepat, secara signifikan mengurangi biaya dan hambatan.
SLM beroperasi dengan berkolaborasi dengan LLM melalui arsitektur Agent, sistem plugin, hot-plug modul LoRA, RAG, dan metode lainnya. Arsitektur ini mempertahankan kemampuan jangkauan luas LLM, sekaligus meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang fleksibel.
Nilai dan batas AI Crypto di lapisan model
Proyek Crypto AI sulit untuk meningkatkan kemampuan inti LLM secara langsung, alasannya adalah:
Ambang teknis terlalu tinggi: Sumber daya dan kemampuan yang diperlukan untuk melatih Model Fondasi sangat besar, hanya sedikit raksasa teknologi yang memilikinya.
Keterbatasan ekosistem sumber terbuka: Kunci untuk mendorong terobosan model benar-benar terfokus pada lembaga penelitian dan sistem rekayasa tertutup.
Namun, proyek Crypto AI dapat memperluas nilai melalui penyempurnaan SLM, menggabungkan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, terwujud dalam dua arah:
Lapisan Verifikasi yang Dapat Dipercaya: Meningkatkan jejak yang dapat dilacak dan kemampuan anti-peny篡篡.
Mekanisme insentif: membangun siklus positif antara pelatihan model dan layanan.
Analisis Klasifikasi Tipe Model AI dan Kesesuaian dengan Blockchain
Proyek Crypto AI kelas model dapat berfokus pada penerapan yang layak terutama pada penyetelan SLM kecil, pengintegrasian dan verifikasi data on-chain dengan arsitektur RAG, serta penerapan dan insentif model Edge secara lokal. Crypto dapat memberikan nilai unik untuk skenario model dengan sumber daya menengah hingga rendah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI Chain berbasis data dan model, dapat mencatat sumber kontribusi data dan model ke dalam blockchain, meningkatkan kredibilitas dan keterlacakan. Melalui mekanisme kontrak pintar, otomatis memicu distribusi hadiah saat dipanggil, mengubah perilaku AI menjadi nilai tokenisasi yang dapat diukur dan diperdagangkan. Pengguna komunitas dapat menilai kinerja model melalui pemungutan suara token, berpartisipasi dalam pembuatan aturan, dan menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi AI Chain OpenLedger
OpenLedger adalah proyek blockchain AI yang fokus pada insentif data dan model. Ini mengajukan konsep "Payable AI", membangun lingkungan operasional AI yang adil, transparan, dan dapat digabungkan, yang mendorong semua pihak untuk berkolaborasi di platform yang sama dan mendapatkan keuntungan di blockchain.
OpenLedger menyediakan rantai tertutup penuh dari "penyediaan data" hingga "penempatan model" dan "pemanggilan pembagian keuntungan", modul inti termasuk:
Model Factory: Tanpa perlu pemrograman, Anda dapat menyetel, melatih, dan menerapkan model kustom berdasarkan LLM sumber terbuka.
OpenLoRA: Mendukung koeksistensi ribuan model, memuat secara dinamis sesuai kebutuhan, secara signifikan mengurangi biaya penerapan
PoA (Proof of Attribution): mewujudkan pengukuran kontribusi dan distribusi penghargaan
Datanets: Jaringan data terstruktur untuk skenario vertikal
Platform Usulan Model: Pasar model on-chain yang dapat digabungkan, dapat dipanggil, dan dapat dibayar
OpenLedger menggunakan OP Stack + EigenDA sebagai dasar untuk membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibangun di atas OP Stack: Mendukung throughput tinggi dan biaya rendah dalam eksekusi
Settling di jaringan utama Ethereum: memastikan keamanan transaksi dan integritas aset
Kompatibel dengan EVM: Memudahkan pengembang untuk dengan cepat menerapkan dan memperluas
EigenDA menyediakan dukungan ketersediaan data: mengurangi biaya penyimpanan, memastikan verifikasi data
Dibandingkan dengan NEAR dan blockchain AI umum lainnya yang lebih berbasis dasar, OpenLedger lebih fokus pada pembangunan blockchain khusus AI yang berorientasi pada insentif data dan model, berkomitmen untuk mewujudkan siklus nilai yang dapat dilacak, dapat dikombinasikan, dan berkelanjutan dalam pengembangan dan pemanggilan model di blockchain. Ini adalah infrastruktur insentif model dalam dunia Web3, menggabungkan hosting model, penagihan penggunaan, dan antarmuka kombinasi di blockchain, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Model Factory, tanpa kode model pabrik
ModelFactory adalah platform fine-tuning LLM di bawah ekosistem OpenLedger. Ini menyediakan antarmuka grafis murni untuk operasi, tanpa memerlukan baris perintah atau integrasi API. Pengguna dapat melakukan fine-tuning model berdasarkan dataset yang telah disetujui dan diaudit, mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penerapan. Proses inti mencakup:
Kontrol Akses Data
Pemilihan dan Konfigurasi Model
Penyesuaian ringan
Evaluasi dan Penempatan Model
Antarmuka Verifikasi Interaktif
RAG menghasilkan jejak
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup autentikasi identitas, izin data, penyesuaian model, evaluasi dan penerapan, serta pelacakan RAG, untuk membangun platform layanan model terintegrasi yang aman, terkendali, interaksi waktu nyata, dan dapat menghasilkan pendapatan yang berkelanjutan.
ModelFactory saat ini mendukung model bahasa besar termasuk LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, dan lainnya. Meskipun tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, konfigurasi "prioritas praktis" telah dibuat berdasarkan batasan realitas yang diterapkan di blockchain.
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan dalam ambang batas rendah, dapat dimonetisasi, dan dapat digabungkan.
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA adalah metode penyesuaian parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks rangka rendah" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan.
OpenLoRA adalah kerangka inferensi ringan yang dirancang oleh OpenLedger khusus untuk penerapan multi-model dan berbagi sumber daya. Ini menyelesaikan masalah biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU dalam penerapan model AI saat ini, mendorong pelaksanaan "AI yang dapat dibayar".
Komponen inti arsitektur sistem OpenLoRA meliputi:
Modul Penyimpanan LoRA Adapter
Penempatan model dan lapisan penggabungan dinamis
Mesin Penalaran
Modul routing permintaan dan output aliran
Proses inferensi OpenLoRA mencakup pemuatan model dasar, pengambilan dinamis LoRA, penggabungan adaptor yang diaktifkan, pelaksanaan inferensi dan keluaran aliran, akhir inferensi dan pelepasan sumber daya.
OpenLoRA secara signifikan meningkatkan efisiensi penyebaran dan inferensi multi-model melalui serangkaian teknik optimasi dasar. Intinya mencakup pemuatan adaptor LoRA dinamis, paralel tensor dan Paged Attention, fusi multi-model, Flash Attention, inti CUDA pra-kompilasi, dan teknik kuantisasi.
OpenLoRA定位 bukan hanya kerangka inferensi LoRA yang efisien, tetapi juga mengintegrasikan inferensi model dengan mekanisme insentif Web3 secara mendalam, dengan tujuan mengubah model LoRA menjadi aset Web3 yang dapat dipanggil, dapat digabungkan, dan dapat dibagikan keuntungannya. Ini telah mencapai:
Model adalah aset
Banyak Penggabungan Dinamis LoRA + Penetapan Pembagian
Mendukung model ekor panjang "penalaran berbagi multi-penyewa"
OpenLedger mengharapkan bahwa kinerja masa depan OpenLoRA akan jauh lebih baik daripada penerapan model parameter penuh tradisional, tetapi indikator ini lebih dekat dengan "kinerja batas atas" dan harus dianggap sebagai "batas ideal" daripada "stabil sehari-hari".
3.3 Datanets (Jaringan Data), dari kedaulatan data ke kecerdasan data
Datanets adalah infrastruktur "data adalah aset" dari OpenLedger, yang digunakan untuk mengumpulkan dan mengelola kumpulan data di bidang tertentu. Setiap Datanet seperti gudang data terstruktur, di mana kontributor mengunggah data, dan mekanisme kepemilikan di atas rantai memastikan data dapat dilacak dan dapat dipercaya.
Dibandingkan dengan proyek yang fokus pada kedaulatan data, OpenLedger memperluas nilai data melalui tiga modul: Datanets, Model Factory, OpenLoRA, membangun "lingkaran tertutup lengkap dari data ke kecerdasan". OpenLedger berfokus pada "bagaimana data dilatih, dipanggil, dan mendapatkan imbalan", mengambil posisi kunci dalam jalur monetisasi data di ekosistem Web3 AI.
Proof of Attribution (PoA) adalah mekanisme inti yang diimplementasikan oleh OpenLedger untuk pengakuan data dan distribusi insentif. Proses pengakuan data dan insentifnya meliputi:
Pengiriman data
Penilaian Dampak
Pelatihan Validasi
Distribusi Insentif
Tata Kelola Kualitas
PoA bukan hanya alat distribusi insentif, tetapi juga kerangka yang berfokus pada transparansi, pelacakan sumber, dan kepemilikan multi-tahap. Ini mencatat seluruh proses pengunggahan data, pemanggilan model, dan eksekusi agen di blockchain, mewujudkan jalur nilai yang dapat diverifikasi dari ujung ke ujung.
RAG Attribution adalah mekanisme atribusi dan insentif data yang dibangun oleh OpenLedger dalam skenario RAG, memastikan bahwa konten yang dihasilkan oleh model dapat dilacak, dapat diverifikasi, dan kontributor dapat diinsentif. Prosesnya mencakup:
Pengguna bertanya → Mencari data
Data dipanggil dan menghasilkan jawaban
Kontributor mendapatkan imbalan
Hasil yang dihasilkan dengan kutipan
Attribution RAG OpenLedger memungkinkan setiap jawaban AI untuk ditelusuri kembali ke sumber data yang nyata, di mana kontributor mendapatkan insentif berdasarkan frekuensi kutipan, mewujudkan "pengetahuan memiliki sumber, pemanggilan dapat dimonetisasi". Mekanisme ini meningkatkan transparansi keluaran model, serta membangun lingkaran insentif yang berkelanjutan untuk kontribusi data berkualitas tinggi.
Empat, Kemajuan Proyek OpenLedger dan Kerjasama Ekosistem
OpenLedger telah meluncurkan jaringan pengujian, lapisan kecerdasan data adalah tahap pertama, bertujuan untuk membangun gudang data internet yang didorong oleh node komunitas. Anggota komunitas dapat menjalankan node perangkat tepi, berpartisipasi dalam pengumpulan dan pemrosesan data, dan mendapatkan penghargaan poin berdasarkan tingkat aktivitas dan penyelesaian tugas.
Jaringan pengujian insentif menyediakan tiga jenis mekanisme pendapatan:
Penambangan data
Verifikasi Transaksi
Partisipasi Tugas
Epoch 2 testnet menekankan peluncuran mekanisme jaringan data Datanets, yang hanya dapat diikuti oleh pengguna dalam daftar putih, mencakup tugas verifikasi data, klasifikasi, dan lainnya.
Perencanaan peta jalan OpenLedger yang lebih jangka panjang mencakup:
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
11 Suka
Hadiah
11
7
Bagikan
Komentar
0/400
StableGeniusDegen
· 3jam yang lalu
Jangan bercanda, L2 bisa menciptakan ekonomi AI?
Lihat AsliBalas0
CAACTrainingInstitution
· 3jam yang lalu
Kembali ke 0 tergantung situasinya adalah hal yang pasti akan terjadi.
Lihat AsliBalas0
WalletInspector
· 10jam yang lalu
Tampaknya sangat memiliki Kedalaman!
Lihat AsliBalas0
PanicSeller
· 10jam yang lalu
Daya Komputasi lagi mau big pump
Lihat AsliBalas0
GasGuzzler
· 10jam yang lalu
Sekali lagi, sebuah konsep baru di mana orang-orang dianggap bodoh telah datang.
Lihat AsliBalas0
ChainDoctor
· 10jam yang lalu
Ada sesuatu yang menarik, siapa yang bisa lebih memahami AI daripada saya?
OpenLedger membangun ekonomi agen cerdas yang didorong oleh data dengan menggabungkan arsitektur dasar OP Stack dan EigenDA.
OpenLedger Kedalaman Laporan Penelitian: Membangun Ekonomi Agen yang Didorong oleh Data dan Model yang Dapat Dikombinasikan dengan OP Stack + EigenDA sebagai Dasar
I. Pendahuluan | Lompatan lapisan model Crypto AI
Data, model, dan daya komputasi adalah tiga elemen inti dari infrastruktur AI, yang tidak dapat dipisahkan. Bidang Crypto AI telah mengalami jalur evolusi yang serupa dengan industri AI tradisional. Pada awal tahun 2024, pasar didominasi oleh proyek GPU terdesentralisasi, menekankan logika pertumbuhan yang kasar "menggabungkan daya komputasi". Setelah tahun 2025, fokus industri secara bertahap beralih ke lapisan model dan data, menandakan transisi Crypto AI dari kompetisi sumber daya dasar menuju pembangunan lapisan menengah yang lebih berkelanjutan dan bernilai aplikasi.
Model Besar Umum (LLM) vs Model Khusus (SLM)
Model bahasa besar tradisional (LLM) sangat bergantung pada dataset besar dan arsitektur kompleks, dengan biaya yang tinggi. Model bahasa khusus (SLM) sebagai paradigma penyetelan ringan, dibangun berdasarkan model sumber terbuka yang dikombinasikan dengan sejumlah kecil data profesional berkualitas tinggi, untuk membangun model di bidang tertentu dengan cepat, secara signifikan mengurangi biaya dan hambatan.
SLM beroperasi dengan berkolaborasi dengan LLM melalui arsitektur Agent, sistem plugin, hot-plug modul LoRA, RAG, dan metode lainnya. Arsitektur ini mempertahankan kemampuan jangkauan luas LLM, sekaligus meningkatkan kinerja profesional melalui modul fine-tuning, membentuk sistem cerdas kombinasi yang fleksibel.
Nilai dan batas AI Crypto di lapisan model
Proyek Crypto AI sulit untuk meningkatkan kemampuan inti LLM secara langsung, alasannya adalah:
Namun, proyek Crypto AI dapat memperluas nilai melalui penyempurnaan SLM, menggabungkan verifikasi dan mekanisme insentif Web3. Sebagai "lapisan antarmuka periferal" dari rantai industri AI, terwujud dalam dua arah:
Analisis Klasifikasi Tipe Model AI dan Kesesuaian dengan Blockchain
Proyek Crypto AI kelas model dapat berfokus pada penerapan yang layak terutama pada penyetelan SLM kecil, pengintegrasian dan verifikasi data on-chain dengan arsitektur RAG, serta penerapan dan insentif model Edge secara lokal. Crypto dapat memberikan nilai unik untuk skenario model dengan sumber daya menengah hingga rendah, membentuk nilai diferensiasi dari "lapisan antarmuka" AI.
Blockchain AI Chain berbasis data dan model, dapat mencatat sumber kontribusi data dan model ke dalam blockchain, meningkatkan kredibilitas dan keterlacakan. Melalui mekanisme kontrak pintar, otomatis memicu distribusi hadiah saat dipanggil, mengubah perilaku AI menjadi nilai tokenisasi yang dapat diukur dan diperdagangkan. Pengguna komunitas dapat menilai kinerja model melalui pemungutan suara token, berpartisipasi dalam pembuatan aturan, dan menyempurnakan struktur tata kelola terdesentralisasi.
Dua, Ringkasan Proyek | Visi AI Chain OpenLedger
OpenLedger adalah proyek blockchain AI yang fokus pada insentif data dan model. Ini mengajukan konsep "Payable AI", membangun lingkungan operasional AI yang adil, transparan, dan dapat digabungkan, yang mendorong semua pihak untuk berkolaborasi di platform yang sama dan mendapatkan keuntungan di blockchain.
OpenLedger menyediakan rantai tertutup penuh dari "penyediaan data" hingga "penempatan model" dan "pemanggilan pembagian keuntungan", modul inti termasuk:
OpenLedger menggunakan OP Stack + EigenDA sebagai dasar untuk membangun lingkungan operasi data dan kontrak yang berkinerja tinggi, biaya rendah, dan dapat diverifikasi untuk model AI.
Dibandingkan dengan NEAR dan blockchain AI umum lainnya yang lebih berbasis dasar, OpenLedger lebih fokus pada pembangunan blockchain khusus AI yang berorientasi pada insentif data dan model, berkomitmen untuk mewujudkan siklus nilai yang dapat dilacak, dapat dikombinasikan, dan berkelanjutan dalam pengembangan dan pemanggilan model di blockchain. Ini adalah infrastruktur insentif model dalam dunia Web3, menggabungkan hosting model, penagihan penggunaan, dan antarmuka kombinasi di blockchain, mendorong jalur realisasi "model sebagai aset".
Tiga, Komponen Inti dan Arsitektur Teknologi OpenLedger
3.1 Model Factory, tanpa kode model pabrik
ModelFactory adalah platform fine-tuning LLM di bawah ekosistem OpenLedger. Ini menyediakan antarmuka grafis murni untuk operasi, tanpa memerlukan baris perintah atau integrasi API. Pengguna dapat melakukan fine-tuning model berdasarkan dataset yang telah disetujui dan diaudit, mewujudkan alur kerja terintegrasi untuk otorisasi data, pelatihan model, dan penerapan. Proses inti mencakup:
Arsitektur sistem Model Factory terdiri dari enam modul, mencakup autentikasi identitas, izin data, penyesuaian model, evaluasi dan penerapan, serta pelacakan RAG, untuk membangun platform layanan model terintegrasi yang aman, terkendali, interaksi waktu nyata, dan dapat menghasilkan pendapatan yang berkelanjutan.
ModelFactory saat ini mendukung model bahasa besar termasuk LLaMA, Mistral, Qwen, ChatGLM, Deepseek, Gemma, Falcon, BLOOM, GPT-2, dan lainnya. Meskipun tidak mencakup model MoE berkinerja tinggi terbaru atau model multimodal, konfigurasi "prioritas praktis" telah dibuat berdasarkan batasan realitas yang diterapkan di blockchain.
Model Factory sebagai rantai alat tanpa kode, semua model dilengkapi dengan mekanisme bukti kontribusi, memastikan hak data kontributor dan pengembang model, memiliki keunggulan dalam ambang batas rendah, dapat dimonetisasi, dan dapat digabungkan.
3.2 OpenLoRA, aset on-chain dari model fine-tuning
LoRA adalah metode penyesuaian parameter yang efisien, yang belajar tugas baru dengan menyisipkan "matriks rangka rendah" ke dalam model besar yang telah dilatih sebelumnya, tanpa mengubah parameter model asli, secara signifikan mengurangi biaya pelatihan dan kebutuhan penyimpanan.
OpenLoRA adalah kerangka inferensi ringan yang dirancang oleh OpenLedger khusus untuk penerapan multi-model dan berbagi sumber daya. Ini menyelesaikan masalah biaya tinggi, rendahnya penggunaan kembali, dan pemborosan sumber daya GPU dalam penerapan model AI saat ini, mendorong pelaksanaan "AI yang dapat dibayar".
Komponen inti arsitektur sistem OpenLoRA meliputi:
Proses inferensi OpenLoRA mencakup pemuatan model dasar, pengambilan dinamis LoRA, penggabungan adaptor yang diaktifkan, pelaksanaan inferensi dan keluaran aliran, akhir inferensi dan pelepasan sumber daya.
OpenLoRA secara signifikan meningkatkan efisiensi penyebaran dan inferensi multi-model melalui serangkaian teknik optimasi dasar. Intinya mencakup pemuatan adaptor LoRA dinamis, paralel tensor dan Paged Attention, fusi multi-model, Flash Attention, inti CUDA pra-kompilasi, dan teknik kuantisasi.
OpenLoRA定位 bukan hanya kerangka inferensi LoRA yang efisien, tetapi juga mengintegrasikan inferensi model dengan mekanisme insentif Web3 secara mendalam, dengan tujuan mengubah model LoRA menjadi aset Web3 yang dapat dipanggil, dapat digabungkan, dan dapat dibagikan keuntungannya. Ini telah mencapai:
OpenLedger mengharapkan bahwa kinerja masa depan OpenLoRA akan jauh lebih baik daripada penerapan model parameter penuh tradisional, tetapi indikator ini lebih dekat dengan "kinerja batas atas" dan harus dianggap sebagai "batas ideal" daripada "stabil sehari-hari".
3.3 Datanets (Jaringan Data), dari kedaulatan data ke kecerdasan data
Datanets adalah infrastruktur "data adalah aset" dari OpenLedger, yang digunakan untuk mengumpulkan dan mengelola kumpulan data di bidang tertentu. Setiap Datanet seperti gudang data terstruktur, di mana kontributor mengunggah data, dan mekanisme kepemilikan di atas rantai memastikan data dapat dilacak dan dapat dipercaya.
Dibandingkan dengan proyek yang fokus pada kedaulatan data, OpenLedger memperluas nilai data melalui tiga modul: Datanets, Model Factory, OpenLoRA, membangun "lingkaran tertutup lengkap dari data ke kecerdasan". OpenLedger berfokus pada "bagaimana data dilatih, dipanggil, dan mendapatkan imbalan", mengambil posisi kunci dalam jalur monetisasi data di ekosistem Web3 AI.
3.4 Bukti Attribusi(贡献证明):Merevolusi lapisan insentif distribusi keuntungan
Proof of Attribution (PoA) adalah mekanisme inti yang diimplementasikan oleh OpenLedger untuk pengakuan data dan distribusi insentif. Proses pengakuan data dan insentifnya meliputi:
PoA bukan hanya alat distribusi insentif, tetapi juga kerangka yang berfokus pada transparansi, pelacakan sumber, dan kepemilikan multi-tahap. Ini mencatat seluruh proses pengunggahan data, pemanggilan model, dan eksekusi agen di blockchain, mewujudkan jalur nilai yang dapat diverifikasi dari ujung ke ujung.
RAG Attribution adalah mekanisme atribusi dan insentif data yang dibangun oleh OpenLedger dalam skenario RAG, memastikan bahwa konten yang dihasilkan oleh model dapat dilacak, dapat diverifikasi, dan kontributor dapat diinsentif. Prosesnya mencakup:
Attribution RAG OpenLedger memungkinkan setiap jawaban AI untuk ditelusuri kembali ke sumber data yang nyata, di mana kontributor mendapatkan insentif berdasarkan frekuensi kutipan, mewujudkan "pengetahuan memiliki sumber, pemanggilan dapat dimonetisasi". Mekanisme ini meningkatkan transparansi keluaran model, serta membangun lingkaran insentif yang berkelanjutan untuk kontribusi data berkualitas tinggi.
Empat, Kemajuan Proyek OpenLedger dan Kerjasama Ekosistem
OpenLedger telah meluncurkan jaringan pengujian, lapisan kecerdasan data adalah tahap pertama, bertujuan untuk membangun gudang data internet yang didorong oleh node komunitas. Anggota komunitas dapat menjalankan node perangkat tepi, berpartisipasi dalam pengumpulan dan pemrosesan data, dan mendapatkan penghargaan poin berdasarkan tingkat aktivitas dan penyelesaian tugas.
Jaringan pengujian insentif menyediakan tiga jenis mekanisme pendapatan:
Epoch 2 testnet menekankan peluncuran mekanisme jaringan data Datanets, yang hanya dapat diikuti oleh pengguna dalam daftar putih, mencakup tugas verifikasi data, klasifikasi, dan lainnya.
Perencanaan peta jalan OpenLedger yang lebih jangka panjang mencakup: