OpenLedger Derinlik Araştırması: OP Stack+EigenDA tabanıyla, veri odaklı, model kombinasyonuna sahip bir akıllı ekonomi inşa etmek
Bir, Giriş | Crypto AI'nin model katmanındaki sıçrama
Veri, model ve hesaplama gücü, AI altyapısının üç temel unsurudur; bunlar yakıt (veri), motor (model) ve enerji (hesaplama gücü) olarak benzetilebilir ve hiçbirinin eksik olmaması gerekir. Geleneksel AI endüstrisinin altyapı evrimi ile benzer bir yol izleyen Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, piyasa bir süre merkeziyetsiz GPU projeleri tarafından domine edildi ve genelde "hesaplama gücünü birleştirme" üzerine yaygın bir büyüme mantığı vurgulandı. Ancak 2025 yılına girerken, sektörün dikkat noktası yavaş yavaş model ve veri katmanına kaymaya başladı, bu da Crypto AI'nın alt seviye kaynak rekabetinden daha sürdürülebilir ve uygulama değeri olan orta seviye inşa aşamasına geçişini simgeliyor.
Genel Büyük Model (LLM) vs Spesifik Model (SLM)
Geleneksel büyük dil modellerinin (LLM) eğitimi, büyük ölçekli veri setleri ve karmaşık dağıtılmış mimarilere yüksek derecede bağımlıdır; parametre ölçekleri genellikle 70B ile 500B arasında değişir ve bir seferdeki eğitim maliyeti birkaç milyon dolara kadar çıkabilir. Öte yandan SLM (Özelleştirilmiş Dil Modeli), tekrar kullanılabilir temel modellerin hafif ince ayar paradigması olarak, genellikle açık kaynaklı modellere dayanır, az sayıda yüksek kaliteli uzman verisi ve LoRA gibi tekniklerle bir araya getirilerek belirli bir alan bilgisine sahip uzman modellerin hızlı bir şekilde inşa edilmesini sağlar ve eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltır.
Dikkate değer olan, SLM'nin LLM ağırlıklarına entegre edilmeyeceği, bunun yerine Agent mimarisi çağrıları, eklenti sistemi dinamik yönlendirmesi, LoRA modülünün sıcak eklentisi, RAG (Retrieve-augmented generation) gibi yöntemlerle LLM ile işbirliği içinde çalışacağıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülleriyle profesyonel performansı artırarak yüksek derecede esnek bir kombinasyon akıllı sistem oluşturur.
Crypto AI'nin model katmanındaki değeri ve sınırları
Kripto AI projeleri esasen büyük dil modellerinin (LLM) temel yeteneklerini doğrudan artırmakta zordur, bunun temel nedeni şudur:
Teknik engeller çok yüksek: Foundation Model'i eğitmek için gereken veri ölçeği, hesaplama kaynakları ve mühendislik yetenekleri son derece büyük, şu anda sadece Amerika ve Çin gibi teknoloji devleri bu yeteneklere sahip.
Açık kaynak ekosisteminin sınırlamaları: Ana akım temel modeller olan LLaMA ve Mixtral açık kaynak olsa da, model atılımlarını gerçekten teşvik eden anahtar hala araştırma kurumları ve kapalı kaynak mühendislik sistemlerinde yoğunlaşmaktadır, zincir üzerindeki projelerin temel model katmanındaki katılım alanı sınırlıdır.
Ancak, açık kaynaklı temel modellerin üzerinde, Crypto AI projeleri özel dil modellerini (SLM) ince ayar yaparak ve Web3'ün doğrulanabilirliği ile teşvik mekanizmalarını birleştirerek değer uzantısını gerçekleştirebilir. AI endüstri zincirinin "kenar arayüz katmanı" olarak, iki temel yönde kendini göstermektedir:
Güvenilir Doğrulama Katmanı: Modelin oluşturma yollarını, veri katkılarını ve kullanım durumlarını zincir üzerinde kaydederek, AI çıktılarının izlenebilirliğini ve değiştirilme direncini artırır.
Teşvik Mekanizması: Yerel Token kullanarak, veri yükleme, model çağrısı, akıllı ajan (Agent) yürütme gibi eylemleri teşvik etmek ve model eğitimini ve hizmetini destekleyen olumlu bir döngü oluşturmak.
AI model türleri sınıflandırması ve blockchain uygunluk analizi
Bundan görülebileceği gibi, model sınıfı Crypto AI projelerinin uygulanabilir noktaları, öncelikle küçük SLM'nin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması ile Edge modelinin yerel dağıtımı ve teşviki üzerine yoğunlaşmaktadır. Blockchain'in doğrulanabilirliği ve token mekanizması ile Crypto, bu orta ve düşük kaynaklı model senaryolarına özgü bir değer sunarak AI "arayüz katmanı" için farklılaştırılmış bir değer oluşturabilir.
Veri ve modellere dayalı blok zinciri AI zinciri, her bir veri ve modelin katkı kaynaklarını net, değiştirilemez bir şekilde zincire kaydetme imkanı sunarak veri güvenilirliğini ve model eğitiminin izlenebilirliğini önemli ölçüde artırır. Aynı zamanda, akıllı sözleşme mekanizması aracılığıyla, veri veya model çağrıldığında otomatik olarak ödül dağıtımını tetikleyerek AI davranışını ölçülebilir, ticarete konu olabilen token değerine dönüştürerek sürdürülebilir bir teşvik sistemi inşa eder. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirmek, kuralların belirlenmesi ve yinelemeye katılmak suretiyle merkeziyetsiz yönetim yapısını geliştirebilir.
İki, Proje Özeti | OpenLedger'ın AI Zincir Vizyonu
OpenLedger, mevcut piyasalarda veri ve model teşvik mekanizmalarına odaklanan nadir blok zinciri AI projelerinden biridir. "Ödenecek AI" konseptini ilk öneren proje olarak, veri katkıcıları, model geliştiricileri ve AI uygulama geliştiricilerinin aynı platformda işbirliği yapmalarını ve gerçek katkılarına dayalı olarak zincir üzerindeki kazançları elde etmelerini sağlamak için adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı inşa etmeyi amaçlamaktadır.
OpenLedger, "veri sağlama"dan "model dağıtımı"na ve ardından "paylaşım çağrısı"na kadar tam bir zincir kapalı döngü sunar. Temel modülleri şunları içerir:
Model Fabrikası: Programlama gerektirmeden, açık kaynak LLM kullanarak LoRA ile ince ayar eğitimi yapabilir ve özelleştirilmiş modelleri dağıtabilirsiniz;
OpenLoRA: Binlerce modelin bir arada bulunmasını destekler, ihtiyaç duyulduğunda dinamik olarak yükler, dağıtım maliyetlerini önemli ölçüde azaltır;
PoA (Atıf Kanıtı): Zincir üzerindeki çağrı kayıtları aracılığıyla katkı ölçümü ve ödül dağıtımını gerçekleştirmek;
Datanets: Dikey senaryolara yönelik yapılandırılmış veri ağı, topluluk iş birliği ile inşa edilip doğrulanmaktadır;
Model Öneri Platformu (Model Proposal Platform): Birleştirilebilir, çağrılabilir ve ödenebilir zincir içi model pazarı.
Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı, modelin birleştirilebilir olduğu bir "akıllı varlık ekonomik altyapısı" inşa etti ve AI değer zincirinin zincir üzerine taşınmasını sağladı.
Ve blok zinciri teknolojisinin benimsenmesinde, OpenLedger OP Stack + EigenDA temel alarak, AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir veri ve sözleşme çalışma ortamı oluşturmuştur.
OP Stack üzerine inşa edildi: Optimism teknoloji yığınına dayalı, yüksek işlem hacmi ve düşük maliyetli yürütmeyi destekler;
Ethereum ana ağı üzerinde hesaplama: İşlem güvenliğini ve varlık bütünlüğünü sağlamak;
EVM uyumlu: Geliştiricilerin Solidity tabanlı hızlı dağıtım ve genişletme yapmasını kolaylaştırır;
EigenDA, veri kullanılabilirliği desteği sunar: depolama maliyetlerini önemli ölçüde azaltır ve verilerin doğrulanabilirliğini güvence altına alır.
NEAR gibi daha çok altyapıya odaklanan, veri egemenliği ve "AI Agents on BOS" mimarisi üzerine inşa edilen genel AI blok zincirlerine kıyasla, OpenLedger daha çok veri ve model teşviklerine yönelik AI özel zincirleri inşa etmeye odaklanmaktadır. Model geliştirme ve çağırma işlemlerinin zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü oluşturmasını sağlamayı amaçlamaktadır. Web3 dünyasında model teşvik altyapısıdır; model barındırma, kullanım faturalandırması ve zincir üzerindeki birleştirilebilir arayüzleri bir araya getirerek "model varlık olarak" gerçekleştirme yolunu ilerletmektedir.
Üç, OpenLedger'ın Temel Bileşenleri ve Teknik Mimarisi
3.1 Model Fabrikası, kodsuz model fabrikası
ModelFactory, OpenLedger ekosisteminde yer alan büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinin aksine, ModelFactory tamamen grafik arayüzü ile işlem yapmayı sağlar, komut satırı araçları veya API entegrasyonuna gerek yoktur. Kullanıcılar, OpenLedger üzerinde tamamlanmış yetkilendirme ve inceleme verileri temelinde modellerini ince ayar yapabilirler. Verilerin yetkilendirilmesi, model eğitimi ve dağıtımını kapsayan entegre bir iş akışı gerçekleştirmiştir; ana süreç şunları içerir:
Veri erişim kontrolü: Kullanıcı veri talebinde bulunur, sağlayıcı inceleyip onaylar, veriler otomatik olarak model eğitim arayüzüne entegre edilir.
Model Seçimi ve Yapılandırması: Ana akım LLM'leri (örneğin LLaMA, Mistral) destekler, GUI aracılığıyla hiperparametre yapılandırması yapılır.
Hafifletilmiş ince ayar: Entegre LoRA / QLoRA motoru, eğitim ilerlemesini gerçek zamanlı olarak gösterir.
Model değerlendirme ve dağıtım: Yerleşik değerlendirme araçları, dağıtım veya ekosistem paylaşımı çağrısını destekler.
Etkileşimli doğrulama arayüzü: Modelin soru-cevap yeteneğini doğrudan test etmek için sohbet tarzı bir arayüz sağlar.
RAG üretim izleme: Kaynak referanslarını yanıtlayarak güveni ve denetlenebilirliği artırır.
Model Factory sistem mimarisi, kimlik doğrulama, veri izinleri, model ince ayarı, değerlendirme dağıtımı ve RAG izleme süreçlerini kapsayan altı ana modülden oluşmaktadır. Güvenli, kontrol edilebilir, gerçek zamanlı etkileşimli ve sürdürülebilir bir şekilde gelir elde etme olanağı sunan entegre bir model hizmet platformu oluşturur.
ModelFactory şu anda desteklenen büyük dil modeli yetenekleri aşağıda verilmiştir:
LLaMA Serisi: En geniş ekosisteme, aktif bir topluluğa ve güçlü genel performansa sahip olup, şu anda en yaygın açık kaynak temel modellerden biridir.
Mistral: Verimli mimari, harika çıkarım performansı ile esnek dağıtım ve sınırlı kaynaklar için uygundur.
Qwen: Çince görev performansı mükemmel, genel yetenekleri güçlü, yerli geliştiriciler için ilk tercihtir.
ChatGLM: Çince konuşma performansı öne çıkıyor, dikey müşteri hizmetleri ve yerelleştirme senaryolarına uygundur.
Deepseek: Kod oluşturma ve matematiksel akıl yürütmede üstün performans gösterir, akıllı geliştirme yardımcı araçları için uygundur.
Gemma: Google tarafından sunulan hafif bir model, net bir yapıya sahip, hızlı bir şekilde öğrenilmesi ve deney yapılması kolay.
Falcon: Performans ölçütüydü, temel araştırma veya karşılaştırma testleri için uygundu, ancak topluluk etkinliği azalmıştır.
BLOOM: Çok dilli destek oldukça güçlü, ancak çıkarım performansı zayıf, dil kapsama araştırmaları için uygundur.
GPT-2: Klasik erken dönem modeli, yalnızca öğretim ve doğrulama amaçları için uygundur, gerçek kullanıma önerilmez.
OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modelini veya çok modlu modelleri içermese de, stratejisi modası geçmiş değil, aksine zincir üzerindeki dağıtımın gerçek kısıtlamaları (çıkarım maliyeti, RAG adaptasyonu, LoRA uyumluluğu, EVM ortamı) temel alınarak yapılan "pratik öncelikli" konfigürasyondur.
Model Factory, bir kodsuz araç zinciri olarak, tüm modeller katkı kanıtı mekanizmasıyla donatılmıştır ve veri katkı sahiplerinin ile model geliştiricilerin haklarını güvence altına alır. Düşük engel, nakde çevrilebilirlik ve birleştirilebilirlik avantajlarına sahiptir ve geleneksel model geliştirme araçlarıyla karşılaştırıldığında:
Geliştiriciler için: Model kuluçkası, dağıtımı ve gelir için tam bir yol sunar;
Platform için: Model varlık akışı ve kombinasyon ekosistemi oluşturmak;
Uygulayıcılar için: Modelleri veya Ajanları API çağrısı yapar gibi birleştirebilirsiniz.
3.2 OpenLoRA, modelin zincir üzerindeki varlıklaştırılması
LoRA (Düşük Sıralı Adaptasyon), önceden eğitilmiş büyük modellere "düşük rütbeli matrisler" ekleyerek yeni görevleri öğrenmek için orijinal model parametrelerini değiştirmeden, eğitim maliyetlerini ve depolama gereksinimlerini önemli ölçüde azaltan etkili bir parametre ince ayar yöntemidir. Geleneksel büyük dil modelleri (örneğin LLaMA, GPT-3) genellikle on milyarlarca hatta yüz milyarlarca parametreye sahiptir. Onları belirli görevler için (örneğin hukuki soru-cevap, tıbbi danışmanlık) kullanmak için ince ayar yapılması gerekir. LoRA'nın temel stratejisi şudur: "Orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrisini eğitmek." Bu, parametre verimliliği, hızlı eğitim ve esnek dağıtım özellikleri ile günümüzde Web3 modeli dağıtımı ve kombinasyon çağrıları için en uygun ana akım ince ayar yöntemidir.
OpenLoRA, OpenLedger tarafından inşa edilen, çoklu model dağıtımı ve kaynak paylaşımı için özel olarak tasarlanmış hafif bir çıkarım çerçevesidir. Temel amacı, mevcut AI model dağıtımında sıkça karşılaşılan yüksek maliyet, düşük yeniden kullanım ve GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamalarını teşvik etmektir.
OpenLoRA sistem mimarisinin çekirdek bileşeni, modüler tasarım üzerine inşa edilmiştir ve model depolama, çıkarım yürütme, istek yönlendirme gibi kritik aşamaları kapsayarak verimli, düşük maliyetli çoklu model dağıtımı ve çağrı yeteneği sağlamaktadır:
LoRA Adaptörü Depolama Modülü (LoRA Adaptörleri Depolama): İncelenmiş LoRA adaptörü OpenLedger üzerinde barındırılmakta, talep üzerine yüklenmekte, tüm modellerin önceden belleğe yüklenmesi önlenmekte ve kaynak tasarrufu sağlanmaktadır.
Model Barındırma ve Adaptör Birleştirme Katmanı (Model Hosting & Adapter Merging Layer): Tüm ince ayar modelleri temel büyük modeli (base model) paylaşır, çıkarım sırasında LoRA adaptörü dinamik
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
6 Likes
Reward
6
4
Share
Comment
0/400
OffchainWinner
· 22h ago
Bu dönemdeki AI projeleri yine de iyi değil.
View OriginalReply0
GateUser-a606bf0c
· 07-27 22:35
Kim bir pozisyon girin, tam olarak anlamıyorum. Anlayanlar açıklayabilir mi?
View OriginalReply0
GateUser-00be86fc
· 07-27 22:30
Yapay zekanın zorunlu bir ihtiyacı var mı?
View OriginalReply0
BearMarketBro
· 07-27 22:26
Kıdemli Ayı Dede Şarkıcı Hayranı Sadece Hepsi içeride
OpenLedger: Veri odaklı model oluşturma, bileşen akıllı ajan ekonomisi
OpenLedger Derinlik Araştırması: OP Stack+EigenDA tabanıyla, veri odaklı, model kombinasyonuna sahip bir akıllı ekonomi inşa etmek
Bir, Giriş | Crypto AI'nin model katmanındaki sıçrama
Veri, model ve hesaplama gücü, AI altyapısının üç temel unsurudur; bunlar yakıt (veri), motor (model) ve enerji (hesaplama gücü) olarak benzetilebilir ve hiçbirinin eksik olmaması gerekir. Geleneksel AI endüstrisinin altyapı evrimi ile benzer bir yol izleyen Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, piyasa bir süre merkeziyetsiz GPU projeleri tarafından domine edildi ve genelde "hesaplama gücünü birleştirme" üzerine yaygın bir büyüme mantığı vurgulandı. Ancak 2025 yılına girerken, sektörün dikkat noktası yavaş yavaş model ve veri katmanına kaymaya başladı, bu da Crypto AI'nın alt seviye kaynak rekabetinden daha sürdürülebilir ve uygulama değeri olan orta seviye inşa aşamasına geçişini simgeliyor.
Genel Büyük Model (LLM) vs Spesifik Model (SLM)
Geleneksel büyük dil modellerinin (LLM) eğitimi, büyük ölçekli veri setleri ve karmaşık dağıtılmış mimarilere yüksek derecede bağımlıdır; parametre ölçekleri genellikle 70B ile 500B arasında değişir ve bir seferdeki eğitim maliyeti birkaç milyon dolara kadar çıkabilir. Öte yandan SLM (Özelleştirilmiş Dil Modeli), tekrar kullanılabilir temel modellerin hafif ince ayar paradigması olarak, genellikle açık kaynaklı modellere dayanır, az sayıda yüksek kaliteli uzman verisi ve LoRA gibi tekniklerle bir araya getirilerek belirli bir alan bilgisine sahip uzman modellerin hızlı bir şekilde inşa edilmesini sağlar ve eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltır.
Dikkate değer olan, SLM'nin LLM ağırlıklarına entegre edilmeyeceği, bunun yerine Agent mimarisi çağrıları, eklenti sistemi dinamik yönlendirmesi, LoRA modülünün sıcak eklentisi, RAG (Retrieve-augmented generation) gibi yöntemlerle LLM ile işbirliği içinde çalışacağıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülleriyle profesyonel performansı artırarak yüksek derecede esnek bir kombinasyon akıllı sistem oluşturur.
Crypto AI'nin model katmanındaki değeri ve sınırları
Kripto AI projeleri esasen büyük dil modellerinin (LLM) temel yeteneklerini doğrudan artırmakta zordur, bunun temel nedeni şudur:
Ancak, açık kaynaklı temel modellerin üzerinde, Crypto AI projeleri özel dil modellerini (SLM) ince ayar yaparak ve Web3'ün doğrulanabilirliği ile teşvik mekanizmalarını birleştirerek değer uzantısını gerçekleştirebilir. AI endüstri zincirinin "kenar arayüz katmanı" olarak, iki temel yönde kendini göstermektedir:
AI model türleri sınıflandırması ve blockchain uygunluk analizi
Bundan görülebileceği gibi, model sınıfı Crypto AI projelerinin uygulanabilir noktaları, öncelikle küçük SLM'nin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması ile Edge modelinin yerel dağıtımı ve teşviki üzerine yoğunlaşmaktadır. Blockchain'in doğrulanabilirliği ve token mekanizması ile Crypto, bu orta ve düşük kaynaklı model senaryolarına özgü bir değer sunarak AI "arayüz katmanı" için farklılaştırılmış bir değer oluşturabilir.
Veri ve modellere dayalı blok zinciri AI zinciri, her bir veri ve modelin katkı kaynaklarını net, değiştirilemez bir şekilde zincire kaydetme imkanı sunarak veri güvenilirliğini ve model eğitiminin izlenebilirliğini önemli ölçüde artırır. Aynı zamanda, akıllı sözleşme mekanizması aracılığıyla, veri veya model çağrıldığında otomatik olarak ödül dağıtımını tetikleyerek AI davranışını ölçülebilir, ticarete konu olabilen token değerine dönüştürerek sürdürülebilir bir teşvik sistemi inşa eder. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirmek, kuralların belirlenmesi ve yinelemeye katılmak suretiyle merkeziyetsiz yönetim yapısını geliştirebilir.
İki, Proje Özeti | OpenLedger'ın AI Zincir Vizyonu
OpenLedger, mevcut piyasalarda veri ve model teşvik mekanizmalarına odaklanan nadir blok zinciri AI projelerinden biridir. "Ödenecek AI" konseptini ilk öneren proje olarak, veri katkıcıları, model geliştiricileri ve AI uygulama geliştiricilerinin aynı platformda işbirliği yapmalarını ve gerçek katkılarına dayalı olarak zincir üzerindeki kazançları elde etmelerini sağlamak için adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı inşa etmeyi amaçlamaktadır.
OpenLedger, "veri sağlama"dan "model dağıtımı"na ve ardından "paylaşım çağrısı"na kadar tam bir zincir kapalı döngü sunar. Temel modülleri şunları içerir:
Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı, modelin birleştirilebilir olduğu bir "akıllı varlık ekonomik altyapısı" inşa etti ve AI değer zincirinin zincir üzerine taşınmasını sağladı.
Ve blok zinciri teknolojisinin benimsenmesinde, OpenLedger OP Stack + EigenDA temel alarak, AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir veri ve sözleşme çalışma ortamı oluşturmuştur.
NEAR gibi daha çok altyapıya odaklanan, veri egemenliği ve "AI Agents on BOS" mimarisi üzerine inşa edilen genel AI blok zincirlerine kıyasla, OpenLedger daha çok veri ve model teşviklerine yönelik AI özel zincirleri inşa etmeye odaklanmaktadır. Model geliştirme ve çağırma işlemlerinin zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü oluşturmasını sağlamayı amaçlamaktadır. Web3 dünyasında model teşvik altyapısıdır; model barındırma, kullanım faturalandırması ve zincir üzerindeki birleştirilebilir arayüzleri bir araya getirerek "model varlık olarak" gerçekleştirme yolunu ilerletmektedir.
Üç, OpenLedger'ın Temel Bileşenleri ve Teknik Mimarisi
3.1 Model Fabrikası, kodsuz model fabrikası
ModelFactory, OpenLedger ekosisteminde yer alan büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinin aksine, ModelFactory tamamen grafik arayüzü ile işlem yapmayı sağlar, komut satırı araçları veya API entegrasyonuna gerek yoktur. Kullanıcılar, OpenLedger üzerinde tamamlanmış yetkilendirme ve inceleme verileri temelinde modellerini ince ayar yapabilirler. Verilerin yetkilendirilmesi, model eğitimi ve dağıtımını kapsayan entegre bir iş akışı gerçekleştirmiştir; ana süreç şunları içerir:
Model Factory sistem mimarisi, kimlik doğrulama, veri izinleri, model ince ayarı, değerlendirme dağıtımı ve RAG izleme süreçlerini kapsayan altı ana modülden oluşmaktadır. Güvenli, kontrol edilebilir, gerçek zamanlı etkileşimli ve sürdürülebilir bir şekilde gelir elde etme olanağı sunan entegre bir model hizmet platformu oluşturur.
ModelFactory şu anda desteklenen büyük dil modeli yetenekleri aşağıda verilmiştir:
OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modelini veya çok modlu modelleri içermese de, stratejisi modası geçmiş değil, aksine zincir üzerindeki dağıtımın gerçek kısıtlamaları (çıkarım maliyeti, RAG adaptasyonu, LoRA uyumluluğu, EVM ortamı) temel alınarak yapılan "pratik öncelikli" konfigürasyondur.
Model Factory, bir kodsuz araç zinciri olarak, tüm modeller katkı kanıtı mekanizmasıyla donatılmıştır ve veri katkı sahiplerinin ile model geliştiricilerin haklarını güvence altına alır. Düşük engel, nakde çevrilebilirlik ve birleştirilebilirlik avantajlarına sahiptir ve geleneksel model geliştirme araçlarıyla karşılaştırıldığında:
3.2 OpenLoRA, modelin zincir üzerindeki varlıklaştırılması
LoRA (Düşük Sıralı Adaptasyon), önceden eğitilmiş büyük modellere "düşük rütbeli matrisler" ekleyerek yeni görevleri öğrenmek için orijinal model parametrelerini değiştirmeden, eğitim maliyetlerini ve depolama gereksinimlerini önemli ölçüde azaltan etkili bir parametre ince ayar yöntemidir. Geleneksel büyük dil modelleri (örneğin LLaMA, GPT-3) genellikle on milyarlarca hatta yüz milyarlarca parametreye sahiptir. Onları belirli görevler için (örneğin hukuki soru-cevap, tıbbi danışmanlık) kullanmak için ince ayar yapılması gerekir. LoRA'nın temel stratejisi şudur: "Orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrisini eğitmek." Bu, parametre verimliliği, hızlı eğitim ve esnek dağıtım özellikleri ile günümüzde Web3 modeli dağıtımı ve kombinasyon çağrıları için en uygun ana akım ince ayar yöntemidir.
OpenLoRA, OpenLedger tarafından inşa edilen, çoklu model dağıtımı ve kaynak paylaşımı için özel olarak tasarlanmış hafif bir çıkarım çerçevesidir. Temel amacı, mevcut AI model dağıtımında sıkça karşılaşılan yüksek maliyet, düşük yeniden kullanım ve GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamalarını teşvik etmektir.
OpenLoRA sistem mimarisinin çekirdek bileşeni, modüler tasarım üzerine inşa edilmiştir ve model depolama, çıkarım yürütme, istek yönlendirme gibi kritik aşamaları kapsayarak verimli, düşük maliyetli çoklu model dağıtımı ve çağrı yeteneği sağlamaktadır: