فيتالك مقال جديد: إثيريوم المستقبل المحتمل، The Surge
تضمنت خارطة طريق إثيريوم في البداية استراتيجيتين للتوسع: الشقوق وبروتوكولات Layer2. في النهاية، اندمجت هاتان الطريقتان معًا، لتشكلا خارطة طريق تركز على Rollup، والتي لا تزال استراتيجية التوسع الحالية لإثيريوم. تقدم خارطة الطريق التي تركز على Rollup تقسيمًا بسيطًا للعمل: تركز إثيريوم L1 على أن تصبح طبقة أساسية قوية ولامركزية، بينما تتولى L2 مهمة مساعدة النظام البيئي على التوسع.
هذا العام، حققت خريطة الطريق التي تركز على Rollup إنجازات مهمة: مع طرح كتل EIP-4844، زادت سعة البيانات في إيثريوم L1 بشكل كبير، ودخلت عدة Rollups على الآلة الافتراضية لإيثريوم (EVM) المرحلة الأولى. كل L2 موجود كـ "شظية" لها قواعدها الداخلية ومنطقها الخاص، وقد أصبحت تنوع وثراء طرق تنفيذ الشظايا واقعًا الآن. ولكن كما رأينا، فإن السير في هذا الطريق يواجه أيضًا بعض التحديات الفريدة. لذلك، فإن مهمتنا الحالية هي إكمال خريطة الطريق التي تركز على Rollup، وحل هذه المشكلات، مع الحفاظ على متانة ولامركزية إيثريوم L1.
الزيادة: الأهداف الرئيسية
في المستقبل، يمكن أن تصل إثيريوم عبر L2 إلى أكثر من 100,000 TPS؛
الحفاظ على اللامركزية والصلابة لـ L1;
على الأقل بعض L2 قد ورثت بشكل كامل الخصائص الأساسية لإثيريوم مثل ( عدم الثقة، الانفتاح، مقاومة الرقابة );
إثيريوم يجب أن يشعر كنظام بيئي موحد، وليس 34 سلسلة كتلة مختلفة.
محتوى هذا الفصل
تناقض مثلث القابلية للتوسع
مزيد من التقدم في نموذج عينة توفر البيانات
ضغط البيانات
بلازما عامة
نظام إثبات L2 الناضج
تحسين التفاعل بين الطبقات الثانية
توسيع التنفيذ على L1
معضلة مثلث القابلية للتوسع
مفارقة مثلث القابلية للتوسع هي فكرة قدمت في عام 2017، وتعتقد أن هناك تناقضًا بين ثلاثة خصائص من خصائص البلوكشين: لامركزية ( بشكل أكثر تحديدًا: تكلفة تشغيل العقد منخفضة )، قابلية التوسع ( عدد المعاملات التي يتم معالجتها كبير ) والأمان ( يحتاج المهاجمون إلى تدمير جزء كبير من العقد في الشبكة لجعل معاملة واحدة تفشل ).
من الجدير بالذكر أن معضلة المثلث ليست نظرية، ولم ترفق المشاركات التي تقدم معضلة المثلث بإثبات رياضي. ومع ذلك، تقدم حجة رياضية استدلالية: إذا كان لدى عقدة صديقة لامركزية ( مثل كمبيوتر محمول عادي يمكنه التحقق من N معاملة في الثانية، وكان لديك سلسلة تعالج k*N معاملات في الثانية، فإن )i( يمكن أن تُرى كل معاملة من قبل 1/k فقط من العقد، مما يعني أن المهاجم يحتاج فقط إلى تدمير عدد قليل من العقد لإدخال معاملة خبيثة، أو )ii( ستصبح عقدتك قوية، بينما لن تتحول سلسلتك إلى لامركزية. الهدف من هذه المقالة ليس إثبات أن كسر معضلة المثلث مستحيل؛ بل على العكس، تهدف إلى إظهار أن كسر معضلة الثلاثيات أمر صعب، ويتطلب الخروج إلى حد ما من إطار التفكير الضمني الذي تتضمنه الحجة.
على مر السنين، ادّعت بعض سلاسل الكتل عالية الأداء أنها حلت التناقض الثلاثي دون تغيير هيكلها الأساسي، غالبًا من خلال استخدام تقنيات هندسة البرمجيات لتحسين العقد. هذا دائمًا ما يكون مضللًا، فتشغيل العقد على هذه السلاسل أكثر صعوبة بكثير من تشغيل العقد على إثيريوم. ستستكشف هذه المقالة لماذا يحدث ذلك، ولماذا لا يمكن توسيع إثيريوم فقط من خلال هندسة البرمجيات لعملاء L1؟
ومع ذلك، فإن الجمع بين أخذ عينات من توفر البيانات وSNARKs يقضي حقًا على مفارقة المثلث: حيث يسمح للعملاء بالتحقق من توفر كمية معينة من البيانات وأن عددًا معينًا من خطوات الحساب قد تم تنفيذها بشكل صحيح، مع تحميل القليل من البيانات وتنفيذ القليل من الحسابات. SNARKs لا تحتاج إلى ثقة. وأخذ عينات من توفر البيانات له نموذج ثقة دقيق قليل من N، لكنه يحتفظ بالخصائص الأساسية التي تتمتع بها السلاسل غير القابلة للتوسع، حيث إنه حتى هجوم بنسبة 51% لا يمكنه فرض قبول الكتل السيئة من قبل الشبكة.
! [مقال فيتاليك الجديد: المستقبل المحتمل ل Ethereum ، الطفرة])https://img-cdn.gateio.im/webp-social/moments-0a07a34094cbf643fdead78b4dd682c6.webp(
طريقة أخرى لحل معضلة الثلاثة هي بنية بلازما، التي تستخدم تقنيات ذكية لتحفيز المستخدمين بتحمل مسؤولية مراقبة توفر البيانات. في الفترة من 2017 إلى 2019، عندما كانت لدينا فقط وسيلة إثبات الاحتيال لتوسيع القدرة الحاسوبية، كانت بلازما محدودة للغاية في التنفيذ الآمن، ولكن مع انتشار SNARKs) وإثبات المعرفة الصفرية القصير غير التفاعلي(، أصبحت بنية بلازما أكثر قابلية للاستخدام في مجموعة أوسع من السيناريوهات مقارنةً بالماضي.
التقدم الإضافي في عينة توفر البيانات
) نحن نحل أي مشكلة؟
في 13 مارس 2024، عندما يتم تشغيل ترقية Dencun، سيكون لدى سلسلة كتل إثيريوم 3 كتل بحجم حوالي 125 كيلوبايت كل 12 ثانية، أو عرض بيانات متاح لكل كتلة بحجم حوالي 375 كيلوبايت. بافتراض أن بيانات المعاملات يتم نشرها مباشرة على السلسلة، فإن تحويلات ERC20 تبلغ حوالي 180 بايت، وبالتالي فإن الحد الأقصى لعدد المعاملات في الثانية (TPS) على إثيريوم Rollup هو: 375000 / 12 / 180 = 173.6 TPS.
إذا أضفنا القيمة القصوى النظرية للـcalldata الخاص بإثيريوم ###: كل slot 30 مليون Gas / لكل بايت 16 gas = كل slot 1,875,000 بايت (، فإن ذلك سيصبح 607 TPS. باستخدام PeerDAS، قد تزداد كمية الـblob إلى 8-16، مما سيوفر للـcalldata 463-926 TPS.
هذا تحسين كبير على إثيريوم L1، لكنه ليس كافياً. نريد المزيد من القابلية للتوسع. هدفنا المتوسط هو 16 ميغا بايت لكل فتحة، وإذا تم دمجه مع تحسينات ضغط بيانات Rollup، فسوف يؤدي إلى ~58000 TPS.
) ما هو؟ كيف يعمل؟
PeerDAS هو تنفيذ بسيط نسبيًا لـ "1D sampling". في إثيريوم، كل blob هو متعدد حدود من الدرجة 4096 في حقل الأعداد الأولية ###prime field(. نحن نبث حصة المتعدد الحدود، حيث تحتوي كل حصة على 16 قيمة تقييم من 16 نقطة متجاورة من إجمالي 8192 نقطة. من بين هذه الـ 8192 قيمة تقييم، يمكن استعادة أي blob من أي 4096 ) وفقًا للمعلمات المقترحة حاليًا: أي 64 من بين 128 عينة محتملة (.
تعمل PeerDAS على جعل كل عميل يستمع إلى عدد قليل من الشبكات الفرعية، حيث تبث الشبكة الفرعية رقم i أي عينة blob رقم i، ومن خلال الاستفسار من أقران الشبكة العالمية p2p حول من سيستمع إلى الشبكات الفرعية المختلفة ) لطلب blob الذي يحتاجه من الشبكات الفرعية الأخرى. النسخة الأكثر تحفظًا SubnetDAS تستخدم فقط آلية الشبكات الفرعية، دون استفسار إضافي عن طبقة الند للند. الاقتراح الحالي هو السماح للعُقد المشاركة في إثبات الحصة باستخدام SubnetDAS، بينما تستخدم العُقد الأخرى ( أي العملاء ) PeerDAS.
من الناحية النظرية، يمكننا توسيع نطاق "1D sampling" ليكون كبيرًا جدًا: إذا قمنا بزيادة الحد الأقصى لعدد blob إلى 256( والهدف 128)، يمكننا الوصول إلى هدف 16MB، حيث يوجد في كل عقدة من عينة توفر البيانات 16 عينة * 128 blob * 512 بايت لكل blob لكل عينة = عرض بيانات 1 MB لكل slot. هذا بالكاد ضمن نطاق تحملنا: إنه ممكن، لكن هذا يعني أن العملاء ذوي عرض النطاق الترددي المحدود لا يمكنهم القيام بالعينة. يمكننا تحسين ذلك إلى حد ما من خلال تقليل عدد blob وزيادة حجم blob، ولكن هذا سيجعل تكلفة إعادة البناء أعلى.
لذا، نريد في النهاية أن نتقدم خطوة أخرى، إجراء 2D sampling(، هذه الطريقة لا تقوم فقط بأخذ عينات عشوائية داخل blob، بل تقوم أيضاً بأخذ عينات عشوائية بين blobs. باستخدام الخصائص الخطية لالتزام KZG، يتم توسيع مجموعة blobs في كتلة واحدة من خلال مجموعة من blobs الافتراضية الجديدة، هذه blobs الافتراضية تشفر بشكل زائد نفس المعلومات.
لذلك، نريد في النهاية أن نذهب خطوة أبعد، لنقوم بأخذ عينات ثنائية الأبعاد، وهي ليست فقط ضمن الـ blob، ولكن أيضًا تأخذ عينات عشوائية بين الـ blob. تستخدم خاصية الالتزام الخطي لـ KZG لتمديد مجموعة الـ blobs ضمن كتلة واحدة، والتي تحتوي على قائمة جديدة من الـ blobs الافتراضية التي تم ترميز المعلومات نفسها بشكل زائد.
من المهم للغاية أن توسيع الالتزام لا يتطلب وجود blob، لذلك فإن هذه الخطة صديقة بشكل أساسي لبناء الكتل الموزعة. يحتاج العقد التي تبني الكتل فعليًا فقط إلى وجود blob KZG التزام، ويمكنهم الاعتماد على عينة توفر البيانات )DAS( للتحقق من توفر كتلة البيانات. عينة توفر البيانات الأحادية )1D DAS( هي أيضًا صديقة لبناء الكتل الموزعة.
) ماذا يجب أن نفعل أيضاً؟ وما هي التنازلات الموجودة؟
بعد ذلك، سيتم تنفيذ وإطلاق PeerDAS. بعد ذلك، سيتم زيادة عدد blobs على PeerDAS باستمرار، مع مراقبة الشبكة عن كثب وتحسين البرمجيات لضمان الأمان، وهذه عملية تدريجية. في الوقت نفسه، نأمل أن يكون هناك المزيد من الأعمال الأكاديمية لتنظيم PeerDAS والإصدارات الأخرى من DAS وتفاعلاتها مع مسائل الأمان مثل قواعد اختيار الفرع.
في مراحل مستقبلية أبعد، نحتاج إلى القيام بمزيد من العمل لتحديد النسخة المثالية من DAS ثنائي الأبعاد، وإثبات خصائصها الأمنية. نأمل أيضًا في النهاية أن نتمكن من الانتقال من KZG إلى بديل آمن كمي ولا يتطلب إعداد موثوق. حاليًا، لا يزال غير واضح ما هي الحلول المرشحة التي تكون صديقة لبناء الكتل الموزعة. حتى مع استخدام تقنية "القوة الغاشمة" المكلفة، أي استخدام STARK التكراري لتوليد إثباتات الصلاحية لإعادة بناء الصفوف والأعمدة، لا يكفي لتلبية الطلب، لأنه على الرغم من أنه من الناحية الفنية، فإن حجم STARK هو O(log)n( * log)log###n((، قيمة الهاش) تستخدم STIR(، ولكن في الواقع يكون حجم STARK تقريبًا بحجم الكتلة بأكملها.
أعتقد أن المسار الواقعي طويل الأجل هو:
تنفيذ DAS ثنائي الأبعاد المثالي;
الاستمرار في استخدام 1D DAS، التضحية بكفاءة عرض النطاق الترددي للعينة، لقبول حد بيانات أقل من أجل البساطة والموثوقية.
التخلي عن DA، وقبول Plasma بالكامل كهيكل Layer2 الرئيسي الذي نركز عليه.
يرجى ملاحظة أنه حتى إذا قررنا التوسع مباشرة في طبقة L1، فإن هذا الخيار موجود. وذلك لأنه إذا كانت طبقة L1 ستتعامل مع كمية كبيرة من TPS، ستصبح كتل L1 كبيرة جداً، وسيأمل العملاء في وجود طريقة فعالة للتحقق من صحتها، لذلك سيتعين علينا استخدام تقنيات مماثلة لتقنية Rollup( مثل ZK-EVM وDAS) في طبقة L1.
) كيف تتفاعل مع أجزاء أخرى من خارطة الطريق؟
إذا تم تحقيق ضغط البيانات، فسوف يقل الطلب على DAS ثنائي الأبعاد، أو على الأقل سيتأخر، وإذا تم استخدام Plasma على نطاق واسع، فسوف يتناقص الطلب أكثر. كما أن DAS يطرح تحديات لبروتوكولات وآليات بناء الكتل الموزعة: على الرغم من أن DAS من الناحية النظرية صديق لإعادة البناء الموزعة، إلا أن ذلك يتطلب عمليًا دمجه مع اقتراح قائمة تضمين الحزم وآليات اختيار الفروع المحيطة بها.
ضغط البيانات
( ماذا نحل من مشكلة؟
كل معاملة في Rollup ستشغل مساحة كبيرة من بيانات السلسلة: نقل ERC20 يحتاج حوالي 180 بايت. حتى مع توفر عينة بيانات مثالية، فإن هذا يحد من قابلية التوسع لبروتوكولات Layer. كل فتحة 16 ميغابايت، نحصل على:
16000000 / 12 / 180 = 7407 TPS
ماذا سيكون الحال إذا استطعنا حل مشكلة البسط، وأيضًا حل مشكلة المقام، مما يجعل كل معاملة في Rollup تستهلك عددًا أقل من البايتات على السلسلة؟
ما هو، كيف يعمل؟
في رأيي، أفضل تفسير هو هذه الصورة من قبل عامين:
![فيتاليك: المستقبل المحتمل لإثيريوم، الزيادة])https://img-cdn.gateio.im/webp-social/moments-5d1a322bd6b6dfef0dbb78017226633d.webp(
في ضغط بايتات صفرية، يتم استبدال كل سلسلة طويلة من بايتات صفرية ببايتين، مما يدل على عدد بايتات الصفر. بشكل أعمق، استخدمنا الخصائص المحددة للمعاملات:
تجميع التوقيعات: نحن ننتقل من توقيع ECDSA إلى توقيع BLS، والخاصية في توقيع BLS هي أنه يمكن دمج عدة توقيعات في توقيع واحد، يمكن أن يثبت هذا التوقيع صحة جميع التوقيعات الأصلية. في طبقة L1، نظرًا لأنه حتى مع التجميع، فإن تكلفة حساب التحقق لا تزال مرتفعة، لذلك لا يتم النظر في استخدام توقيع BLS. ولكن في L2، مثل هذا البيئة التي تعاني من نقص البيانات، فإن استخدام توقيع BLS له معنى. توفر خاصية التجميع في ERC-4337 طريقًا لتحقيق هذه الوظيفة.
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 11
أعجبني
11
6
مشاركة
تعليق
0/400
DeFiGrayling
· 07-27 07:00
L2 راهن على سوق صاعدة كبيرة
شاهد النسخة الأصليةرد0
QuorumVoter
· 07-27 06:59
انظر انظر، كلها طرق قديمة.
شاهد النسخة الأصليةرد0
TestnetNomad
· 07-27 06:56
ف神 ظهر مرة أخرى ليفعل الشيء
شاهد النسخة الأصليةرد0
WenAirdrop
· 07-27 06:50
مرة أخرى يرسم الحلم في الهواء فـ V神
شاهد النسخة الأصليةرد0
WhaleMistaker
· 07-27 06:37
لقد أصبح مسار L2 مزدحماً جداً.
شاهد النسخة الأصليةرد0
PumpDoctrine
· 07-27 06:35
سواء تم تغيير الغاز أم لا ، فهذا متروك للحرف V القديم
فيتالك يتطلع إلى مستقبل إثيريوم: كيف يمكن أن تحقق Surge توسعة تصل إلى 100000 TPS
فيتالك مقال جديد: إثيريوم المستقبل المحتمل، The Surge
تضمنت خارطة طريق إثيريوم في البداية استراتيجيتين للتوسع: الشقوق وبروتوكولات Layer2. في النهاية، اندمجت هاتان الطريقتان معًا، لتشكلا خارطة طريق تركز على Rollup، والتي لا تزال استراتيجية التوسع الحالية لإثيريوم. تقدم خارطة الطريق التي تركز على Rollup تقسيمًا بسيطًا للعمل: تركز إثيريوم L1 على أن تصبح طبقة أساسية قوية ولامركزية، بينما تتولى L2 مهمة مساعدة النظام البيئي على التوسع.
هذا العام، حققت خريطة الطريق التي تركز على Rollup إنجازات مهمة: مع طرح كتل EIP-4844، زادت سعة البيانات في إيثريوم L1 بشكل كبير، ودخلت عدة Rollups على الآلة الافتراضية لإيثريوم (EVM) المرحلة الأولى. كل L2 موجود كـ "شظية" لها قواعدها الداخلية ومنطقها الخاص، وقد أصبحت تنوع وثراء طرق تنفيذ الشظايا واقعًا الآن. ولكن كما رأينا، فإن السير في هذا الطريق يواجه أيضًا بعض التحديات الفريدة. لذلك، فإن مهمتنا الحالية هي إكمال خريطة الطريق التي تركز على Rollup، وحل هذه المشكلات، مع الحفاظ على متانة ولامركزية إيثريوم L1.
الزيادة: الأهداف الرئيسية
في المستقبل، يمكن أن تصل إثيريوم عبر L2 إلى أكثر من 100,000 TPS؛
الحفاظ على اللامركزية والصلابة لـ L1;
على الأقل بعض L2 قد ورثت بشكل كامل الخصائص الأساسية لإثيريوم مثل ( عدم الثقة، الانفتاح، مقاومة الرقابة );
إثيريوم يجب أن يشعر كنظام بيئي موحد، وليس 34 سلسلة كتلة مختلفة.
محتوى هذا الفصل
معضلة مثلث القابلية للتوسع
مفارقة مثلث القابلية للتوسع هي فكرة قدمت في عام 2017، وتعتقد أن هناك تناقضًا بين ثلاثة خصائص من خصائص البلوكشين: لامركزية ( بشكل أكثر تحديدًا: تكلفة تشغيل العقد منخفضة )، قابلية التوسع ( عدد المعاملات التي يتم معالجتها كبير ) والأمان ( يحتاج المهاجمون إلى تدمير جزء كبير من العقد في الشبكة لجعل معاملة واحدة تفشل ).
من الجدير بالذكر أن معضلة المثلث ليست نظرية، ولم ترفق المشاركات التي تقدم معضلة المثلث بإثبات رياضي. ومع ذلك، تقدم حجة رياضية استدلالية: إذا كان لدى عقدة صديقة لامركزية ( مثل كمبيوتر محمول عادي يمكنه التحقق من N معاملة في الثانية، وكان لديك سلسلة تعالج k*N معاملات في الثانية، فإن )i( يمكن أن تُرى كل معاملة من قبل 1/k فقط من العقد، مما يعني أن المهاجم يحتاج فقط إلى تدمير عدد قليل من العقد لإدخال معاملة خبيثة، أو )ii( ستصبح عقدتك قوية، بينما لن تتحول سلسلتك إلى لامركزية. الهدف من هذه المقالة ليس إثبات أن كسر معضلة المثلث مستحيل؛ بل على العكس، تهدف إلى إظهار أن كسر معضلة الثلاثيات أمر صعب، ويتطلب الخروج إلى حد ما من إطار التفكير الضمني الذي تتضمنه الحجة.
على مر السنين، ادّعت بعض سلاسل الكتل عالية الأداء أنها حلت التناقض الثلاثي دون تغيير هيكلها الأساسي، غالبًا من خلال استخدام تقنيات هندسة البرمجيات لتحسين العقد. هذا دائمًا ما يكون مضللًا، فتشغيل العقد على هذه السلاسل أكثر صعوبة بكثير من تشغيل العقد على إثيريوم. ستستكشف هذه المقالة لماذا يحدث ذلك، ولماذا لا يمكن توسيع إثيريوم فقط من خلال هندسة البرمجيات لعملاء L1؟
ومع ذلك، فإن الجمع بين أخذ عينات من توفر البيانات وSNARKs يقضي حقًا على مفارقة المثلث: حيث يسمح للعملاء بالتحقق من توفر كمية معينة من البيانات وأن عددًا معينًا من خطوات الحساب قد تم تنفيذها بشكل صحيح، مع تحميل القليل من البيانات وتنفيذ القليل من الحسابات. SNARKs لا تحتاج إلى ثقة. وأخذ عينات من توفر البيانات له نموذج ثقة دقيق قليل من N، لكنه يحتفظ بالخصائص الأساسية التي تتمتع بها السلاسل غير القابلة للتوسع، حيث إنه حتى هجوم بنسبة 51% لا يمكنه فرض قبول الكتل السيئة من قبل الشبكة.
! [مقال فيتاليك الجديد: المستقبل المحتمل ل Ethereum ، الطفرة])https://img-cdn.gateio.im/webp-social/moments-0a07a34094cbf643fdead78b4dd682c6.webp(
طريقة أخرى لحل معضلة الثلاثة هي بنية بلازما، التي تستخدم تقنيات ذكية لتحفيز المستخدمين بتحمل مسؤولية مراقبة توفر البيانات. في الفترة من 2017 إلى 2019، عندما كانت لدينا فقط وسيلة إثبات الاحتيال لتوسيع القدرة الحاسوبية، كانت بلازما محدودة للغاية في التنفيذ الآمن، ولكن مع انتشار SNARKs) وإثبات المعرفة الصفرية القصير غير التفاعلي(، أصبحت بنية بلازما أكثر قابلية للاستخدام في مجموعة أوسع من السيناريوهات مقارنةً بالماضي.
التقدم الإضافي في عينة توفر البيانات
) نحن نحل أي مشكلة؟
في 13 مارس 2024، عندما يتم تشغيل ترقية Dencun، سيكون لدى سلسلة كتل إثيريوم 3 كتل بحجم حوالي 125 كيلوبايت كل 12 ثانية، أو عرض بيانات متاح لكل كتلة بحجم حوالي 375 كيلوبايت. بافتراض أن بيانات المعاملات يتم نشرها مباشرة على السلسلة، فإن تحويلات ERC20 تبلغ حوالي 180 بايت، وبالتالي فإن الحد الأقصى لعدد المعاملات في الثانية (TPS) على إثيريوم Rollup هو: 375000 / 12 / 180 = 173.6 TPS.
إذا أضفنا القيمة القصوى النظرية للـcalldata الخاص بإثيريوم ###: كل slot 30 مليون Gas / لكل بايت 16 gas = كل slot 1,875,000 بايت (، فإن ذلك سيصبح 607 TPS. باستخدام PeerDAS، قد تزداد كمية الـblob إلى 8-16، مما سيوفر للـcalldata 463-926 TPS.
هذا تحسين كبير على إثيريوم L1، لكنه ليس كافياً. نريد المزيد من القابلية للتوسع. هدفنا المتوسط هو 16 ميغا بايت لكل فتحة، وإذا تم دمجه مع تحسينات ضغط بيانات Rollup، فسوف يؤدي إلى ~58000 TPS.
) ما هو؟ كيف يعمل؟
PeerDAS هو تنفيذ بسيط نسبيًا لـ "1D sampling". في إثيريوم، كل blob هو متعدد حدود من الدرجة 4096 في حقل الأعداد الأولية ###prime field(. نحن نبث حصة المتعدد الحدود، حيث تحتوي كل حصة على 16 قيمة تقييم من 16 نقطة متجاورة من إجمالي 8192 نقطة. من بين هذه الـ 8192 قيمة تقييم، يمكن استعادة أي blob من أي 4096 ) وفقًا للمعلمات المقترحة حاليًا: أي 64 من بين 128 عينة محتملة (.
تعمل PeerDAS على جعل كل عميل يستمع إلى عدد قليل من الشبكات الفرعية، حيث تبث الشبكة الفرعية رقم i أي عينة blob رقم i، ومن خلال الاستفسار من أقران الشبكة العالمية p2p حول من سيستمع إلى الشبكات الفرعية المختلفة ) لطلب blob الذي يحتاجه من الشبكات الفرعية الأخرى. النسخة الأكثر تحفظًا SubnetDAS تستخدم فقط آلية الشبكات الفرعية، دون استفسار إضافي عن طبقة الند للند. الاقتراح الحالي هو السماح للعُقد المشاركة في إثبات الحصة باستخدام SubnetDAS، بينما تستخدم العُقد الأخرى ( أي العملاء ) PeerDAS.
من الناحية النظرية، يمكننا توسيع نطاق "1D sampling" ليكون كبيرًا جدًا: إذا قمنا بزيادة الحد الأقصى لعدد blob إلى 256( والهدف 128)، يمكننا الوصول إلى هدف 16MB، حيث يوجد في كل عقدة من عينة توفر البيانات 16 عينة * 128 blob * 512 بايت لكل blob لكل عينة = عرض بيانات 1 MB لكل slot. هذا بالكاد ضمن نطاق تحملنا: إنه ممكن، لكن هذا يعني أن العملاء ذوي عرض النطاق الترددي المحدود لا يمكنهم القيام بالعينة. يمكننا تحسين ذلك إلى حد ما من خلال تقليل عدد blob وزيادة حجم blob، ولكن هذا سيجعل تكلفة إعادة البناء أعلى.
لذا، نريد في النهاية أن نتقدم خطوة أخرى، إجراء 2D sampling(، هذه الطريقة لا تقوم فقط بأخذ عينات عشوائية داخل blob، بل تقوم أيضاً بأخذ عينات عشوائية بين blobs. باستخدام الخصائص الخطية لالتزام KZG، يتم توسيع مجموعة blobs في كتلة واحدة من خلال مجموعة من blobs الافتراضية الجديدة، هذه blobs الافتراضية تشفر بشكل زائد نفس المعلومات.
لذلك، نريد في النهاية أن نذهب خطوة أبعد، لنقوم بأخذ عينات ثنائية الأبعاد، وهي ليست فقط ضمن الـ blob، ولكن أيضًا تأخذ عينات عشوائية بين الـ blob. تستخدم خاصية الالتزام الخطي لـ KZG لتمديد مجموعة الـ blobs ضمن كتلة واحدة، والتي تحتوي على قائمة جديدة من الـ blobs الافتراضية التي تم ترميز المعلومات نفسها بشكل زائد.
من المهم للغاية أن توسيع الالتزام لا يتطلب وجود blob، لذلك فإن هذه الخطة صديقة بشكل أساسي لبناء الكتل الموزعة. يحتاج العقد التي تبني الكتل فعليًا فقط إلى وجود blob KZG التزام، ويمكنهم الاعتماد على عينة توفر البيانات )DAS( للتحقق من توفر كتلة البيانات. عينة توفر البيانات الأحادية )1D DAS( هي أيضًا صديقة لبناء الكتل الموزعة.
) ماذا يجب أن نفعل أيضاً؟ وما هي التنازلات الموجودة؟
بعد ذلك، سيتم تنفيذ وإطلاق PeerDAS. بعد ذلك، سيتم زيادة عدد blobs على PeerDAS باستمرار، مع مراقبة الشبكة عن كثب وتحسين البرمجيات لضمان الأمان، وهذه عملية تدريجية. في الوقت نفسه، نأمل أن يكون هناك المزيد من الأعمال الأكاديمية لتنظيم PeerDAS والإصدارات الأخرى من DAS وتفاعلاتها مع مسائل الأمان مثل قواعد اختيار الفرع.
في مراحل مستقبلية أبعد، نحتاج إلى القيام بمزيد من العمل لتحديد النسخة المثالية من DAS ثنائي الأبعاد، وإثبات خصائصها الأمنية. نأمل أيضًا في النهاية أن نتمكن من الانتقال من KZG إلى بديل آمن كمي ولا يتطلب إعداد موثوق. حاليًا، لا يزال غير واضح ما هي الحلول المرشحة التي تكون صديقة لبناء الكتل الموزعة. حتى مع استخدام تقنية "القوة الغاشمة" المكلفة، أي استخدام STARK التكراري لتوليد إثباتات الصلاحية لإعادة بناء الصفوف والأعمدة، لا يكفي لتلبية الطلب، لأنه على الرغم من أنه من الناحية الفنية، فإن حجم STARK هو O(log)n( * log)log###n((، قيمة الهاش) تستخدم STIR(، ولكن في الواقع يكون حجم STARK تقريبًا بحجم الكتلة بأكملها.
أعتقد أن المسار الواقعي طويل الأجل هو:
يرجى ملاحظة أنه حتى إذا قررنا التوسع مباشرة في طبقة L1، فإن هذا الخيار موجود. وذلك لأنه إذا كانت طبقة L1 ستتعامل مع كمية كبيرة من TPS، ستصبح كتل L1 كبيرة جداً، وسيأمل العملاء في وجود طريقة فعالة للتحقق من صحتها، لذلك سيتعين علينا استخدام تقنيات مماثلة لتقنية Rollup( مثل ZK-EVM وDAS) في طبقة L1.
) كيف تتفاعل مع أجزاء أخرى من خارطة الطريق؟
إذا تم تحقيق ضغط البيانات، فسوف يقل الطلب على DAS ثنائي الأبعاد، أو على الأقل سيتأخر، وإذا تم استخدام Plasma على نطاق واسع، فسوف يتناقص الطلب أكثر. كما أن DAS يطرح تحديات لبروتوكولات وآليات بناء الكتل الموزعة: على الرغم من أن DAS من الناحية النظرية صديق لإعادة البناء الموزعة، إلا أن ذلك يتطلب عمليًا دمجه مع اقتراح قائمة تضمين الحزم وآليات اختيار الفروع المحيطة بها.
ضغط البيانات
( ماذا نحل من مشكلة؟
كل معاملة في Rollup ستشغل مساحة كبيرة من بيانات السلسلة: نقل ERC20 يحتاج حوالي 180 بايت. حتى مع توفر عينة بيانات مثالية، فإن هذا يحد من قابلية التوسع لبروتوكولات Layer. كل فتحة 16 ميغابايت، نحصل على:
16000000 / 12 / 180 = 7407 TPS
ماذا سيكون الحال إذا استطعنا حل مشكلة البسط، وأيضًا حل مشكلة المقام، مما يجعل كل معاملة في Rollup تستهلك عددًا أقل من البايتات على السلسلة؟
ما هو، كيف يعمل؟
في رأيي، أفضل تفسير هو هذه الصورة من قبل عامين:
![فيتاليك: المستقبل المحتمل لإثيريوم، الزيادة])https://img-cdn.gateio.im/webp-social/moments-5d1a322bd6b6dfef0dbb78017226633d.webp(
في ضغط بايتات صفرية، يتم استبدال كل سلسلة طويلة من بايتات صفرية ببايتين، مما يدل على عدد بايتات الصفر. بشكل أعمق، استخدمنا الخصائص المحددة للمعاملات:
تجميع التوقيعات: نحن ننتقل من توقيع ECDSA إلى توقيع BLS، والخاصية في توقيع BLS هي أنه يمكن دمج عدة توقيعات في توقيع واحد، يمكن أن يثبت هذا التوقيع صحة جميع التوقيعات الأصلية. في طبقة L1، نظرًا لأنه حتى مع التجميع، فإن تكلفة حساب التحقق لا تزال مرتفعة، لذلك لا يتم النظر في استخدام توقيع BLS. ولكن في L2، مثل هذا البيئة التي تعاني من نقص البيانات، فإن استخدام توقيع BLS له معنى. توفر خاصية التجميع في ERC-4337 طريقًا لتحقيق هذه الوظيفة.
استخدم