OpenLedger العمق تقرير بحثي: بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجمع على أساس OP Stack + EigenDA
واحد، المقدمة | الانتقال في نموذج Crypto AI
البيانات والنماذج وقوة الحوسبة هي العناصر الثلاثة الأساسية للبنية التحتية للذكاء الاصطناعي، ويمكن تشبيهها بالوقود (البيانات) والمحرك (النموذج) والطاقة (قوة الحوسبة) التي لا غنى عنها. وبالمثل مع مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهد مجال Crypto AI أيضًا مراحل مماثلة. في أوائل عام 2024، هيمن السوق في أحد الأوقات على مشاريع GPU اللامركزية، حيث تم التأكيد بشكل عام على منطق النمو الخشن الذي يركز على "تجميع قوة الحوسبة". ومع بداية عام 2025، بدأت نقاط التركيز في الصناعة بالانتقال تدريجيًا إلى طبقة النماذج والبيانات، مما يمثل انتقال Crypto AI من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تتطلب نماذج اللغة الكبيرة التقليدية (LLM) تدريبًا يعتمد بشكل كبير على مجموعات بيانات ضخمة وبنية موزعة معقدة، حيث تصل أحجام المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب مرة واحدة إلى عدة ملايين من الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) كنوع من نماذج القاعدة القابلة لإعادة الاستخدام في نمط التعديل الخفيف، وعادة ما تعتمد على نماذج مفتوحة المصدر، جنبًا إلى جنب مع كمية صغيرة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات محددة بسرعة، مما يقلل بشكل ملحوظ من تكاليف التدريب وعتبة التكنولوجيا.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتعاون مع LLM من خلال استدعاء بنية الوكيل، نظام المكونات الإضافية للتوجيه الديناميكي، توصيل LoRA الحار، و RAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. تحافظ هذه البنية على قدرة LLM الواسعة، بينما تعزز الأداء المتخصص من خلال وحدات الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة وحدود Crypto AI في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة في جوهرها صعبة في تعزيز القدرات الأساسية لنماذج اللغة الكبيرة (LLM) مباشرة، والسبب الرئيسي هو
عتبة التقنية مرتفعة جداً: حجم البيانات، موارد الحوسبة، والقدرة الهندسية المطلوبة لتدريب نموذج الأساس ضخمة للغاية، في الوقت الحالي فقط عمالقة التكنولوجيا مثل الولايات المتحدة والصين لديهم القدرة المناسبة.
قيود النظام البيئي مفتوح المصدر: على الرغم من أن النماذج الأساسية الرئيسية مثل LLaMA و Mixtral مفتوحة المصدر، إلا أن المفتاح الحقيقي لدفع نماذج الاختراق لا يزال مركزيًا في المؤسسات البحثية وأنظمة الهندسة المغلقة، مما يحد من مساحة المشاركة في الطبقة الأساسية للنماذج في المشاريع على السلسلة.
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة مضافة من خلال تحسين نماذج اللغة المتخصصة (SLM) على نماذج الأساس مفتوحة المصدر، بالاقتران مع قابلية التحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
طبقة التحقق الموثوق: من خلال تسجيل مسار توليد النموذج، ومساهمات البيانات واستخدامها على السلسلة، تعزز قابلية تتبع مخرجات الذكاء الاصطناعي وقدرتها على مقاومة التلاعب.
آلية التحفيز: باستخدام الرمز الأصلي، لتحفيز سلوكيات تحميل البيانات، استدعاء النماذج، وتنفيذ الوكلاء، لبناء حلقة إيجابية للتدريب على النموذج والخدمات.
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوك تشين
من هنا نجد أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع النماذج تتركز بشكل رئيسي على تحسين خفة SLM الصغيرة، وإدخال البيانات والتحقق منها على السلسلة باستخدام بنية RAG، بالإضافة إلى نشر وتحفيز النماذج الحافة محليًا. بالجمع بين القابلية للتحقق في البلوكشين وآلية الرموز، يمكن لـ Crypto أن تقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة مميزة لطبقة "واجهة" الذكاء الاصطناعي.
بناءً على بيانات ونموذج سلسلة الكتل AI، يمكن تسجيل مصدر المساهمة لكل بيانات ونموذج بشكل واضح وغير قابل للتغيير على السلسلة، مما يعزز بشكل كبير مصداقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تنشيط توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد وتكرارها، وتحسين هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي في السلسلة
OpenLedger هو واحد من المشاريع القليلة في سوق blockchain AI التي تركز على بيانات وآليات تحفيز النماذج. لقد اقترح لأول مرة مفهوم "Payable AI"، والذي يهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، مما يحفز مساهمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على مكافآت على السلسلة بناءً على المساهمة الفعلية.
OpenLedger تقدم سلسلة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء توزيع الأرباح"، وتشمل الوحدات الأساسية ما يلي:
مصنع النموذج: بدون برمجة، يمكنك استخدام LoRA لضبط التدريب ونشر نماذج مخصصة بناءً على LLM مفتوح المصدر؛
OpenLoRA: يدعم التعايش مع آلاف النماذج، التحميل الديناميكي حسب الحاجة، مما يقلل بشكل كبير من تكاليف النشر؛
PoA (إثبات النسبة): تحقيق قياس المساهمة وتوزيع المكافآت من خلال استدعاءات السلسلة.
Datanets: شبكة بيانات هيكلية موجهة نحو سيناريوهات عمودية، تم بناؤها والتحقق منها من خلال التعاون المجتمعي؛
منصة اقتراح النماذج (Model Proposal Platform): سوق نماذج على السلسلة قابلة للتكوين، قابلة للاستدعاء، وقابلة للدفع.
من خلال الوحدات أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" القابلة للتجميع المدفوعة بالبيانات، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية blockchain، تعتمد OpenLedger على OP Stack + EigenDA كأساس، مما يوفر بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.
مبني على OP Stack: يعتمد على تقنية Optimism، يدعم تنفيذ ذو قدرة عالية على المعالجة وبتكلفة منخفضة؛
تسوية على الشبكة الرئيسية للإيثيريوم: ضمان أمان المعاملات وسلامة الأصول؛
متوافق مع EVM: يسهل على المطورين نشر وتوسيع العقود الذكية بسرعة باستخدام Solidity؛
EigenDA تقدم دعم إمكانية استخدام البيانات: تخفيض كبير في تكاليف التخزين، وضمان قابلية التحقق من البيانات.
بالمقارنة مع NEAR التي تركز أكثر على البنية التحتية وتدعم سيادة البيانات و "AI Agents on BOS"، تركز OpenLedger أكثر على بناء سلسلة خاصة بالذكاء الاصطناعي موجهة نحو تحفيز البيانات والنماذج، وتكرس جهودها لتحقيق تطوير واستدعاء النماذج على السلسلة مع قيمة قابلة للتتبع، وقابلة للتجميع، ومستدامة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج، والفوترة للاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية والتقنية ل OpenLedger
3.1 نموذج المصنع، دون الحاجة إلى كود نموذج المصنع
ModelFactory هي منصة لضبط نماذج اللغة الكبيرة (LLM) تحت نظام OpenLedger. على عكس أطر الضبط التقليدية، توفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج بناءً على مجموعات البيانات التي تم تفويضها ومراجعتها على OpenLedger. تحقق من سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، والنشر، وتشتمل العمليات الأساسية على:
التحكم في الوصول إلى البيانات: يقوم المستخدم بتقديم طلبات البيانات، ويقوم المزود بمراجعة الاعتماد، ويتم الاتصال بالبيانات تلقائيًا بواجهة تدريب النموذج.
اختيار النموذج وتكوينه: يدعم LLM الرائجة (مثل LLaMA، Mistral)، من خلال واجهة المستخدم الرسومية لتكوين المعلمات الفائقة.
خفيفة الوزن للتعديل: محرك LoRA / QLoRA المدمج، يعرض تقدم التدريب في الوقت الفعلي.
تقييم النموذج ونشره: أدوات التقييم المدمجة، تدعم تصدير النشر أو مشاركة استدعاء النظام البيئي.
واجهة التحقق التفاعلي: توفر واجهة محادثة، مما يسهل اختبار قدرة النموذج على الإجابة.
يتضمن هيكل نظام Model Factory ستة وحدات، تشمل مصادقة الهوية، صلاحيات البيانات، ضبط النموذج، تقييم النشر و RAG تتبع المصدر، لإنشاء منصة خدمة نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للتحقيق المستدام.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا بواسطة ModelFactory هو كما يلي:
سلسلة LLaMA: الأكثر تنوعًا في النظام البيئي، مجتمع نشط، أداء عام قوي، وهي واحدة من النماذج الأساسية مفتوحة المصدر الأكثر شيوعًا حاليًا.
Qwen: الأداء ممتاز في المهام باللغة الصينية، القدرة الشاملة قوية، مناسبة لتكون الخيار الأول للمطورين المحليين.
ChatGLM: تأثير المحادثة باللغة الصينية بارز، مناسب لخدمة العملاء المتخصصة والمشاهد المحلية.
Deepseek: يتفوق في توليد الشفرات والاستدلال الرياضي، مناسب كأداة مساعدة للتطوير الذكي.
Gemma: نموذج خفيف تم إطلاقه بواسطة Google، هيكل واضح، سهل الاستخدام والتجريب بسرعة.
فالكون: كان معيار الأداء، مناسب للأبحاث الأساسية أو اختبارات المقارنة، لكن نشاط المجتمع قد انخفض.
BLOOM: دعم متعدد اللغات قوي، لكن أداء الاستدلال ضعيف، مناسب للأبحاث التي تغطي اللغات.
GPT-2: نموذج كلاسيكي مبكر، مناسب فقط للأغراض التعليمية والتحقق، لا يُنصح باستخدامه في النشر الفعلي.
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" الذي تم إجراؤه بناءً على القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
تعتبر Model Factory كأداة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات منخفضة، وقابلية للتسييل والتجميع، مقارنة بأدوات تطوير النماذج التقليدية:
للمطورين: توفير مسار كامل لنمذجة الحضانة والتوزيع والدخل؛
بالنسبة للمنصة: تشكيل تدفق الأصول النموذجية وإيكولوجيا التركيب؛
للمستخدمين: يمكن استخدام النماذج أو الوكلاء بشكل متكامل كما هو الحال عند استدعاء API.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA ،资产化 الأصول على سلسلة النماذج المعدلة
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات من خلال إدخال "مصفوفات منخفضة الرتبة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA وGPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل أسئلة قانونية، استشارات طبية)، يحتاج الأمر إلى ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط."، وهي فعالة من حيث المعلمات، سريعة التدريب، ومرنة في النشر، مما يجعلها الطريقة السائدة لضبط النماذج ونشرها في Web3.
OpenLoRA هو إطار استدلال خفيف الوزن مصمم خصيصًا لنشر النماذج المتعددة ومشاركة الموارد تم بناؤه بواسطة OpenLedger. الهدف الأساسي له هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكلفة العالية، وانخفاض إعادة الاستخدام، وهدر موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
المكونات الأساسية لهندسة نظام OpenLoRA، مستندة إلى تصميم معياري، تغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من العناصر الرئيسية، لتحقيق قدرة نشر واستدعاء متعددة النماذج بكفاءة وبتكلفة منخفضة:
LoRA Adapter وحدة التخزين (LoRA Adapters Storage): يتم استضافة LoRA adapter المعدّل على OpenLedger، مما يتيح التحميل حسب الطلب، وتجنب تحميل جميع النماذج مسبقًا في ذاكرة الفيديو، مما يوفر الموارد.
استضافة النموذج وطبقة دمج التكييف (Model Hosting & Adapter Merging Layer): جميع نماذج التخصيص المشتركة تستخدم النموذج الأساسي (base model)، وعند الاستدلال يتم دمج محول LoRA بشكل ديناميكي.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 6
أعجبني
6
4
مشاركة
تعليق
0/400
OffchainWinner
· 07-28 07:30
هذا المشروع الذكاء الاصطناعي ليس جيدًا أيضًا
شاهد النسخة الأصليةرد0
GateUser-a606bf0c
· 07-27 22:35
من سيذهب ليدخل مركز؟ لا أفهم جيدًا، هل يوجد من يشرح لي؟
OpenLedger: بناء نموذج قائم على البيانات لاقتصاد الوكلاء الذكيين القابل للتجميع
OpenLedger العمق تقرير بحثي: بناء اقتصاد وكيل مدفوع بالبيانات وقابل للتجمع على أساس OP Stack + EigenDA
واحد، المقدمة | الانتقال في نموذج Crypto AI
البيانات والنماذج وقوة الحوسبة هي العناصر الثلاثة الأساسية للبنية التحتية للذكاء الاصطناعي، ويمكن تشبيهها بالوقود (البيانات) والمحرك (النموذج) والطاقة (قوة الحوسبة) التي لا غنى عنها. وبالمثل مع مسار تطور البنية التحتية في صناعة الذكاء الاصطناعي التقليدية، شهد مجال Crypto AI أيضًا مراحل مماثلة. في أوائل عام 2024، هيمن السوق في أحد الأوقات على مشاريع GPU اللامركزية، حيث تم التأكيد بشكل عام على منطق النمو الخشن الذي يركز على "تجميع قوة الحوسبة". ومع بداية عام 2025، بدأت نقاط التركيز في الصناعة بالانتقال تدريجيًا إلى طبقة النماذج والبيانات، مما يمثل انتقال Crypto AI من المنافسة على الموارد الأساسية إلى بناء أكثر استدامة وقيمة تطبيقية في الطبقة المتوسطة.
نموذج عام (LLM) مقابل نموذج متخصص (SLM)
تتطلب نماذج اللغة الكبيرة التقليدية (LLM) تدريبًا يعتمد بشكل كبير على مجموعات بيانات ضخمة وبنية موزعة معقدة، حيث تصل أحجام المعلمات إلى 70B~500B، وغالبًا ما تصل تكلفة التدريب مرة واحدة إلى عدة ملايين من الدولارات. بينما تُعتبر SLM (نموذج اللغة المتخصص) كنوع من نماذج القاعدة القابلة لإعادة الاستخدام في نمط التعديل الخفيف، وعادة ما تعتمد على نماذج مفتوحة المصدر، جنبًا إلى جنب مع كمية صغيرة من البيانات المتخصصة عالية الجودة وتقنيات مثل LoRA، لبناء نماذج خبراء تمتلك معرفة في مجالات محددة بسرعة، مما يقلل بشكل ملحوظ من تكاليف التدريب وعتبة التكنولوجيا.
من الجدير بالذكر أن SLM لن يتم دمجه في أوزان LLM، بل سيتعاون مع LLM من خلال استدعاء بنية الوكيل، نظام المكونات الإضافية للتوجيه الديناميكي، توصيل LoRA الحار، و RAG (التوليد المعزز بالاسترجاع) وغيرها من الطرق. تحافظ هذه البنية على قدرة LLM الواسعة، بينما تعزز الأداء المتخصص من خلال وحدات الضبط الدقيق، مما يشكل نظام ذكاء مركب عالي المرونة.
قيمة وحدود Crypto AI في طبقة النموذج
مشاريع الذكاء الاصطناعي للعملات المشفرة في جوهرها صعبة في تعزيز القدرات الأساسية لنماذج اللغة الكبيرة (LLM) مباشرة، والسبب الرئيسي هو
ومع ذلك، يمكن لمشاريع Crypto AI أن تحقق قيمة مضافة من خلال تحسين نماذج اللغة المتخصصة (SLM) على نماذج الأساس مفتوحة المصدر، بالاقتران مع قابلية التحقق وآليات التحفيز في Web3. كـ "طبقة واجهة محيطية" في سلسلة صناعة الذكاء الاصطناعي، تتجلى في اتجاهين رئيسيين:
تصنيف أنواع نماذج الذكاء الاصطناعي وتحليل ملاءمتها للبلوك تشين
من هنا نجد أن النقاط القابلة للتطبيق لمشاريع Crypto AI من نوع النماذج تتركز بشكل رئيسي على تحسين خفة SLM الصغيرة، وإدخال البيانات والتحقق منها على السلسلة باستخدام بنية RAG، بالإضافة إلى نشر وتحفيز النماذج الحافة محليًا. بالجمع بين القابلية للتحقق في البلوكشين وآلية الرموز، يمكن لـ Crypto أن تقدم قيمة فريدة لهذه السيناريوهات ذات الموارد المتوسطة والمنخفضة، مما يخلق قيمة مميزة لطبقة "واجهة" الذكاء الاصطناعي.
بناءً على بيانات ونموذج سلسلة الكتل AI، يمكن تسجيل مصدر المساهمة لكل بيانات ونموذج بشكل واضح وغير قابل للتغيير على السلسلة، مما يعزز بشكل كبير مصداقية البيانات وقابلية تتبع تدريب النموذج. في الوقت نفسه، من خلال آلية العقود الذكية، يتم تنشيط توزيع المكافآت تلقائيًا عند استدعاء البيانات أو النموذج، مما يحول سلوك AI إلى قيمة رمزية قابلة للقياس والتداول، وبناء نظام تحفيز مستدام. بالإضافة إلى ذلك، يمكن لمستخدمي المجتمع أيضًا تقييم أداء النموذج من خلال تصويت الرموز، والمشاركة في وضع القواعد وتكرارها، وتحسين هيكل الحوكمة اللامركزية.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-62B3FAe810F4772AABA3D91C74C1AA6)
ثانياً، نظرة عامة على المشروع | رؤية OpenLedger للذكاء الاصطناعي في السلسلة
OpenLedger هو واحد من المشاريع القليلة في سوق blockchain AI التي تركز على بيانات وآليات تحفيز النماذج. لقد اقترح لأول مرة مفهوم "Payable AI"، والذي يهدف إلى بناء بيئة تشغيل AI عادلة وشفافة وقابلة للتجميع، مما يحفز مساهمي البيانات ومطوري النماذج وبناة تطبيقات AI للتعاون على نفس المنصة، والحصول على مكافآت على السلسلة بناءً على المساهمة الفعلية.
OpenLedger تقدم سلسلة مغلقة كاملة من "توفير البيانات" إلى "نشر النماذج" ثم إلى "استدعاء توزيع الأرباح"، وتشمل الوحدات الأساسية ما يلي:
من خلال الوحدات أعلاه، قامت OpenLedger ببناء "البنية التحتية للاقتصاد الذكي" القابلة للتجميع المدفوعة بالبيانات، مما يعزز تحويل سلسلة قيمة الذكاء الاصطناعي إلى السلسلة.
وفي اعتماد تقنية blockchain، تعتمد OpenLedger على OP Stack + EigenDA كأساس، مما يوفر بيئة تشغيل بيانات وعقود عالية الأداء ومنخفضة التكلفة وقابلة للتحقق لنماذج الذكاء الاصطناعي.
بالمقارنة مع NEAR التي تركز أكثر على البنية التحتية وتدعم سيادة البيانات و "AI Agents on BOS"، تركز OpenLedger أكثر على بناء سلسلة خاصة بالذكاء الاصطناعي موجهة نحو تحفيز البيانات والنماذج، وتكرس جهودها لتحقيق تطوير واستدعاء النماذج على السلسلة مع قيمة قابلة للتتبع، وقابلة للتجميع، ومستدامة. إنها البنية التحتية لتحفيز النماذج في عالم Web3، تجمع بين استضافة النماذج، والفوترة للاستخدام، وواجهات قابلة للتجميع على السلسلة، مما يعزز مسار تحقيق "النموذج كأصل".
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-19C2276FCCC616CCF9260FB7E35C9C24)
ثلاثة، المكونات الأساسية والتقنية ل OpenLedger
3.1 نموذج المصنع، دون الحاجة إلى كود نموذج المصنع
ModelFactory هي منصة لضبط نماذج اللغة الكبيرة (LLM) تحت نظام OpenLedger. على عكس أطر الضبط التقليدية، توفر ModelFactory واجهة رسومية بحتة، دون الحاجة إلى أدوات سطر الأوامر أو تكامل API. يمكن للمستخدمين ضبط النموذج بناءً على مجموعات البيانات التي تم تفويضها ومراجعتها على OpenLedger. تحقق من سير العمل المتكامل لتفويض البيانات، وتدريب النموذج، والنشر، وتشتمل العمليات الأساسية على:
يتضمن هيكل نظام Model Factory ستة وحدات، تشمل مصادقة الهوية، صلاحيات البيانات، ضبط النموذج، تقييم النشر و RAG تتبع المصدر، لإنشاء منصة خدمة نموذج متكاملة آمنة وقابلة للتحكم، وتفاعلية في الوقت الحقيقي، وقابلة للتحقيق المستدام.
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ Moments-F23F47F09226573B1FCACEBDCFB8c1f3)
جدول ملخص قدرات نماذج اللغة الكبيرة المدعومة حاليًا بواسطة ModelFactory هو كما يلي:
على الرغم من أن مجموعة نماذج OpenLedger لا تتضمن أحدث نماذج MoE عالية الأداء أو النماذج متعددة الوسائط، إلا أن استراتيجيتها ليست قديمة، بل هي تكوين "الأولوية العملية" الذي تم إجراؤه بناءً على القيود الواقعية للنشر على السلسلة (تكاليف الاستدلال، توافق RAG، توافق LoRA، بيئة EVM).
تعتبر Model Factory كأداة بدون كود، حيث تحتوي جميع النماذج على آلية إثبات المساهمة المدمجة، مما يضمن حقوق المساهمين في البيانات ومطوري النماذج، وتتميز بمتطلبات منخفضة، وقابلية للتسييل والتجميع، مقارنة بأدوات تطوير النماذج التقليدية:
! [تقرير بحثي متعمق ل OpenLedger: بناء اقتصاد وكيل قائم على البيانات وقابل للتركيب على أساس OP Stack+EigenDA](https://img-cdn.gateio.im/social/ moments-909dc3f796ad6aa44a1c97a51ade4193)
3.2 OpenLoRA ،资产化 الأصول على سلسلة النماذج المعدلة
LoRA (التكيف منخفض الرتبة) هي طريقة فعالة لضبط المعلمات من خلال إدخال "مصفوفات منخفضة الرتبة" في نموذج كبير مدرب مسبقًا لتعلم مهام جديدة، دون تعديل معلمات النموذج الأصلي، مما يقلل بشكل كبير من تكلفة التدريب ومتطلبات التخزين. عادةً ما تحتوي نماذج اللغة الكبيرة التقليدية (مثل LLaMA وGPT-3) على عشرات المليارات أو حتى مئات المليارات من المعلمات. لاستخدامها في مهام محددة (مثل أسئلة قانونية، استشارات طبية)، يحتاج الأمر إلى ضبط (fine-tuning). الاستراتيجية الأساسية لـ LoRA هي: "تجميد معلمات النموذج الكبير الأصلي، وتدريب مصفوفات المعلمات الجديدة المدخلة فقط."، وهي فعالة من حيث المعلمات، سريعة التدريب، ومرنة في النشر، مما يجعلها الطريقة السائدة لضبط النماذج ونشرها في Web3.
OpenLoRA هو إطار استدلال خفيف الوزن مصمم خصيصًا لنشر النماذج المتعددة ومشاركة الموارد تم بناؤه بواسطة OpenLedger. الهدف الأساسي له هو حل المشكلات الشائعة في نشر نماذج الذكاء الاصطناعي الحالية، مثل التكلفة العالية، وانخفاض إعادة الاستخدام، وهدر موارد GPU، وتعزيز تنفيذ "الذكاء الاصطناعي القابل للدفع".
المكونات الأساسية لهندسة نظام OpenLoRA، مستندة إلى تصميم معياري، تغطي تخزين النموذج، تنفيذ الاستدلال، توجيه الطلبات وغيرها من العناصر الرئيسية، لتحقيق قدرة نشر واستدعاء متعددة النماذج بكفاءة وبتكلفة منخفضة: