مع النضج السريع للبنية التحتية للذكاء الاصطناعي وتطور إطار التعاون بين الوكلاء المتعددين، أصبح وكلاء الذكاء الاصطناعي المدفوعين بسرعة القوة الرئيسية في تفاعلات Web3. من المتوقع أنه في السنوات 2-3 المقبلة، ستقوم هذه الوكلاء الذكية ذات القدرة على اتخاذ القرارات المستقلة بإجراء اعتماد واسع النطاق على المعاملات والتفاعلات على السلسلة، وقد تحل محل 80% من السلوك البشري على السلسلة، لتصبح "مستخدمين" حقيقيين على السلسلة.
لا تقتصر هذه الوكلاء الذكية على كونها "روبوتات" تنفذ النصوص، بل إنها قادرة على فهم السياق، والتعلم المستمر، واتخاذ قرارات معقدة بشكل مستقل، مما يعيد تشكيل النظام على السلسلة، ويدفع التدفقات المالية، بل ويقود التصويت في الحوكمة واتجاهات السوق. إن ظهور الوكلاء الذكيين يدل على أن نظام Web3 البيئي، الذي كان مركزه "مشاركة البشر"، يتطور إلى نمط جديد من "التعايش بين الإنسان والآلة".
ومع ذلك، فإن الصعود السريع لوكلاء الذكاء الاصطناعي قد جلب تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن الحكم على مصداقية سلوكهم؟ في شبكة لامركزية وغير مرخصة، كيف يمكن ضمان عدم استخدام هؤلاء الوكلاء بشكل غير صحيح أو التلاعب بهم أو استخدامهم في الهجمات؟
لذلك، أصبح إنشاء بنية تحتية على السلسلة يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو القضية الأساسية في المرحلة التالية من تطور Web3. سوف تحدد تصميم آليات التعرف على الهوية والسمعة وإطار الثقة، ما إذا كان يمكن لوكيل الذكاء الاصطناعي تحقيق التعاون السلس مع البشر والمنصات، ولعب دور مستدام في النظام البيئي المستقبلي.
2. تحليل المشروع
2.1 مقدمة المشروع
تسعى Trusta.AI لبناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.
أطلقت Trusta.AI أول نظام لتقييم قيمة مستخدمي Web3 - نظام تقييم السمعة MEDIA، والذي أنشأ أكبر بروتوكول للمصادقة الحقيقية والسمعة على السلسلة في Web3. يقدم خدمات تحليل البيانات على السلسلة والمصادقة الحقيقية لأعلى سلاسل مثل Linea و Starknet و Celestia و Arbitrum و Manta و Plume. تمت إكمال أكثر من 2.5 مليون مصادقة على السلسلة على سلاسل رئيسية مثل Linea و BSC و TON، لتصبح أكبر بروتوكول هوية في الصناعة.
تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، حيث حققت آلية ثلاثية تشمل إنشاء الهوية، وتQuantification الهوية، وحماية الهوية لتحقيق خدمات مالية على السلسلة ووسائل التواصل الاجتماعي على السلسلة لوكلاء الذكاء الاصطناعي، مما يبني أساس الثقة الموثوق في عصر الذكاء الاصطناعي.
2.2 بنية الثقة - وكيل الذكاء الاصطناعي DID
في مستقبل بيئة Web3، سيلعب وكيل الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم إتمام التفاعلات والمعاملات على السلسلة، وكذلك إجراء عمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكيل الذكاء الاصطناعي الحقيقي والعمليات التي تتدخل فيها البشر تتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هذه الكيانات ستكون عرضة للتلاعب أو الاحتيال أو الإساءة. ولهذا السبب، يجب أن تستند التطبيقات المتعددة لوكيل الذكاء الاصطناعي في المجالات الاجتماعية والمالية والإدارية إلى أساس قوي من التحقق من الهوية.
تتزايد تطبيقات وكيل الذكاء الاصطناعي، حيث تشمل مجالات متعددة مثل التفاعل الاجتماعي، وإدارة المالية، وصنع القرار الحكومي، وتتحسن مستويات استقلاليتها وذكائها باستمرار. لذلك، من الضروري ضمان أن يمتلك كل وكيل هوية فريدة وموثوقة (DID). إن غياب التحقق الفعال من الهوية يمكن أن يؤدي إلى استخدام وكيل الذكاء الاصطناعي بشكل غير قانوني أو التحكم فيه، مما يؤدي إلى انهيار الثقة والمخاطر الأمنية.
في المستقبل، في نظام Web3 البيئي المدفوع بالكامل بالوكالات الذكية، فإن هوية الاعتماد ليست فقط حجر الزاوية لضمان الأمان، بل هي أيضًا خط الدفاع الضروري للحفاظ على التشغيل الصحي للنظام البيئي بأكمله.
كونها رائدة في هذا المجال، قامت Trusta.AI بتطوير آلية موثوقة لشهادة الهوية الرقمية للوكيل الذكي بفضل قوتها التقنية الرائدة ونظام سمعتها الدقيق، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكيل الذكي، ويعمل على الحد من المخاطر المحتملة، ويعزز النمو المستدام للاقتصاد الذكي في Web3.
يناير 2023: إكمال جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، ومن بين المشاركين الآخرين HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding وغيرها.
يونيو 2025: إكمال جولة تمويل جديدة، تشمل الجهات المستثمرة ConsenSys و Starknet و GSR و UFLY Labs وغيرها
2.3.2 حالة الفريق
بيت تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة أنتي الرقمية، ورئيس المنتجات في أنتي للأمن التكنولوجي، والمدير العام السابق لمنصة الهوية الرقمية العالمية زولوز.
سايمون: المؤسس المشارك ورئيس قسم التكنولوجيا، سابقًا رئيس مختبر الأمن الذكي في مجموعة علي بابا، لديه خمسة عشر عامًا من الخبرة في تطبيق تقنيات الذكاء الاصطناعي في الأمان وإدارة المخاطر.
تمتلك الفريق خبرة تقنية عميقة وتجربة عملية في مجالات الذكاء الاصطناعي وإدارة المخاطر الأمنية، وهندسة أنظمة الدفع وآليات التحقق من الهوية، وتكرس جهودها منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات التداول ذات التزامن العالي، مما يوفر قدرات هندسية قوية وقدرة على تنفيذ الحلول المبتكرة.
3. الهيكل التقني
3.1 تحليل تقني
3.1.1 بناء الهوية - DID + TEE
من خلال مكون إضافي مخصص، يحصل كل وكيل AI على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بشكل آمن في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، يتم إخفاء البيانات الرئيسية وعملية الحساب تمامًا، وتظل العمليات الحساسة خاصة دائمًا، ولا يمكن للجهات الخارجية التطفل على تفاصيل التشغيل الداخلي، مما يشكل حاجزًا قويًا لأمان معلومات وكيل AI.
بالنسبة للوسطاء الذين تم إنشاؤهم قبل دمج المكون الإضافي، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن لوكلاء المكون الإضافي الجديد الحصول مباشرة على "شهادة الهوية" المصدرة من DID، مما يؤدي إلى إنشاء نظام هوية لوكيل AI يتمتع بالتحكم الذاتي والموثوقية وعدم القابلية للتلاعب.
3.1.2 قياس الهوية - إطار SIGMA الرائد
تلتزم فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي ، وتهدف إلى إنشاء نظام موثوق للمصادقة على الهوية.
بنى فريق Trusta وبحث في فعالية نموذج MEDIA Score في سيناريو "إثبات الإنسانية" في البداية. يقوم هذا النموذج بتكميم صورة المستخدمين على السلسلة بشكل شامل من خمسة أبعاد، وهي: مبلغ التفاعل (Monetary)، المشاركة (Engagement)، التنوع (Diversity)، الهوية (Identity) والعمر (Age).
MEDIA Score هو نظام تقييم لقيمة المستخدمين على السلسلة، يتميز بالعدالة والموضوعية والقابلية للقياس. بفضل أبعاده الشاملة وطرقه الدقيقة، تم اعتماده على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة مثل Celestia وStarknet وArbitrum وManta وLinea، كمعيار مرجعي مهم لتصفية مؤهلات الاستثمار في المشاريع الجديدة. إنه لا يركز فقط على قيمة التفاعل، بل يشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، خصائص الهوية، وعمر الحساب، مما يساعد المشاريع في تحديد المستخدمين ذوي القيمة العالية بدقة، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس سلطته واعترافه الواسع في الصناعة.
استنادًا إلى نجاح بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وترقية تجربة MEDIA Score إلى سيناريو AI Agent، وإنشاء نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.
التخصصية: معرفة الوكيل ودرجة التخصص.
التأثير: التأثير الاجتماعي والرقمي للوكيل.
المشاركة: اتساق وموثوقية التفاعلات على السلسلة وخارج السلسلة.
العملات النقدية: الصحة المالية واستقرار النظام البيئي للرموز الممثلة.
معدل الاستخدام: تكرار استخدام وكيل الذكاء الاصطناعي وكفاءته.
تقوم آلية تقييم Sigma ببناء نظام تقييم منطقي مغلق من "القدرة" إلى "القيمة" من خلال خمسة أبعاد. يركز MEDIA على تقييم تعدد مشاركة المستخدمين البشريين، بينما يركز Sigma أكثر على احترافية واستقرار الوكلاء الذكاء الاصطناعي في مجالات محددة، مما يعكس التحول من العرض إلى العمق ويتماشى بشكل أفضل مع احتياجات وكيل الذكاء الاصطناعي.
أولاً، على أساس القدرة المهنية ( Specification )، يعكس مستوى المشاركة ( Engagement ) ما إذا كان هناك استثمار مستقر ومستمر في التفاعل العملي، وهو الدعم الرئيسي لبناء الثقة والفعالية في المستقبل. التأثير ( Influence ) هو الارتداد من السمعة التي تنشأ بعد المشاركة في المجتمع أو الشبكة، مما يدل على مصداقية الوكيل وتأثير الانتشار. التقييم النقدي ( Monetary ) يقيّم ما إذا كان لديه القدرة على تراكم القيمة والاستقرار المالي في النظام الاقتصادي، مما يمهد الطريق لآلية تحفيز مستدامة. في النهاية، يتم استخدام معدل التبني ( Adoption ) كتمثيل شامل، حيث يمثل مستوى قبول هذا الوكيل في الاستخدام الفعلي، وهو التحقق النهائي لجميع القدرات والأداء المسبق.
هذا النظام يتطور بشكل متدرج، وهيكل واضح، يمكنه أن يعكس بشكل شامل الجودة الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي، مما يحقق تقييمًا كميًا لأداء الذكاء الاصطناعي وقيمته، ويحول المزايا والعيوب المجردة إلى نظام تقييم ملموس وقابل للقياس.
حالياً، تم推进 إطار SIGMA بالتعاون مع شبكات AI Agent المعروفة مثل Virtual وElisa OS وSwarm، مما يظهر إمكانياته الكبيرة في إدارة هوية الوكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، وهو ما يجعله تدريجياً محركاً أساسياً لدفع بناء بنية تحتية موثوقة للذكاء الاصطناعي.
3.1.3 حماية الهوية - آلية تقييم الثقة
في نظام ذكاء اصطناعي حقيقي عالي المرونة وموثوقية، فإن الأمر الأكثر أهمية ليس فقط إنشاء الهوية، ولكن أيضًا التحقق المستمر من الهوية. تُدخل Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، والتي يمكن أن تراقب الوكلاء الذكيين المعتمدين في الوقت الفعلي، لتحديد ما إذا كانوا تحت سيطرة غير قانونية، أو يتعرضون لهجوم، أو يتدخل فيهم أشخاص غير مصرح لهم. يقوم النظام بالتعرف على الانحرافات المحتملة خلال عملية تشغيل الوكيل من خلال تحليل السلوك والتعلم الآلي، مما يضمن أن كل سلوك للوكيل يبقى ضمن السياسات والإطار المحدد. تضمن هذه الطريقة الاستباقية اكتشاف أي انحراف عن السلوك المتوقع على الفور، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.
أنشأت Trusta.AI آلية حراسة أمنية متصلة دائمًا، تراقب في الوقت الحقيقي كل عملية تفاعل، لضمان أن جميع العمليات تتماشى مع معايير النظام والتوقعات المحددة.
تقوم Trusta.AI بتخصيص هويات لا مركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمها وتصنيفها بناءً على بيانات السلوك على السلسلة، مما أنشأ نظام ثقة يمكن التحقق منه وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكالات الذكاء الاصطناعي عالية الجودة وتصفيتها، مما يحسن تجربة الاستخدام. حاليًا، أكملت Trusta جمع وتحديد وكلاء الذكاء الاصطناعي في الشبكة بأكملها، وقد منحتهم معرّفات لا مركزية، وأنشأت منصة فهرس موحدة تسمى AgentGo، مما يعزز التطور الصحي لنظام الوكالات الذكية.
1.استعلام والتحقق من هوية المستخدمين البشر:
من خلال لوحة المعلومات التي تقدمها Trusta.AI، يمكن للمستخدمين البشريين بسهولة استرجاع هوية ودرجة سمعة وكيل الذكاء الاصطناعي، وتحديد ما إذا كان موثوقًا.
مشهد الدردشة الاجتماعية: في فريق مشروع يستخدم بوت الذكاء الاصطناعي لإدارة المجتمع أو التحدث, يمكن لمستخدمي المجتمع التحقق من خلال لوحة القيادة ما إذا كان هذا الذكاء الاصطناعي هو وكيل مستقل حقيقي, لتجنب الخداع أو التلاعب من قبل "الذكاء الاصطناعي الزائف".
يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة بين بعضهم البعض، مما يحقق التأكيد السريع على الهوية والسمعة، وضمان أمان التعاون وتبادل المعلومات.
مشهد تنظيم التمويل: إذا قام وكيل AI بإصدار عملة بشكل مستقل، يمكن للنظام مباشرة فهرسة DID الخاص به وتقييمه، لتحديد ما إذا كان وكيل AI معتمد، ويرتبط تلقائيًا بمنصات مثل CoinMarketCap، مما يساعد في تتبع تدفق الأصول والامتثال للإصدار.
سيناريو تصويت الحوكمة: عند إدخال تصويت الذكاء الاصطناعي في مقترحات الحوكمة، يمكن للنظام التحقق مما إذا كانت الجهة التي بدأت أو شاركت في التصويت هي وكيل ذكاء اصطناعي حقيقي، لتجنب استغلال حقوق التصويت من قبل البشر.
الإقراض الائتماني DeFi: يمكن أن تمنح بروتوكولات الإقراض قروضًا ائتمانية مختلفة لوكلاء الذكاء الاصطناعي بناءً على نظام تقييم SIGMA، مما يشكل علاقات مالية أصلية بين الوكلاء.
أصبح DID وكيل الذكاء الاصطناعي ليس فقط "هوية"، بل هو أيضًا الدعم الأساسي لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمع، وغيرها من الوظائف الأساسية، ليصبح البنية التحتية الضرورية لتطور النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، كل
قد تحتوي هذه الصفحة على محتوى من جهات خارجية، يتم تقديمه لأغراض إعلامية فقط (وليس كإقرارات/ضمانات)، ولا ينبغي اعتباره موافقة على آرائه من قبل Gate، ولا بمثابة نصيحة مالية أو مهنية. انظر إلى إخلاء المسؤولية للحصول على التفاصيل.
تسجيلات الإعجاب 9
أعجبني
9
5
مشاركة
تعليق
0/400
ZKSherlock
· منذ 15 س
في الواقع... أنت تفتقد النقطة الأكثر أهمية حول التحقق من الهوية بدون معرفة، إن اعتماد الذكاء الاصطناعي بنسبة 80% لا يعني شيئًا بدون إثباتات الهوية التشفيرية الصحيحة.
شاهد النسخة الأصليةرد0
ReverseFOMOguy
· منذ 21 س
إذا لم تتمكن من مواكبة الاتجاهات، فستكون محذوفًا
شاهد النسخة الأصليةرد0
ContractTester
· منذ 21 س
داخل السلسلة بوتات تأخذ مكان البشر؟ دعنا نذهب أولاً
Trusta.AI: بناء بنية تحتية موثوقة لـ Web3 وقيادة عصر جديد من التحقق من هوية وكيل الذكاء الاصطناعي داخل السلسلة
Trusta.AI: جسر الثقة عبر عصر الإنسان والآلة
1. المقدمة
مع النضج السريع للبنية التحتية للذكاء الاصطناعي وتطور إطار التعاون بين الوكلاء المتعددين، أصبح وكلاء الذكاء الاصطناعي المدفوعين بسرعة القوة الرئيسية في تفاعلات Web3. من المتوقع أنه في السنوات 2-3 المقبلة، ستقوم هذه الوكلاء الذكية ذات القدرة على اتخاذ القرارات المستقلة بإجراء اعتماد واسع النطاق على المعاملات والتفاعلات على السلسلة، وقد تحل محل 80% من السلوك البشري على السلسلة، لتصبح "مستخدمين" حقيقيين على السلسلة.
لا تقتصر هذه الوكلاء الذكية على كونها "روبوتات" تنفذ النصوص، بل إنها قادرة على فهم السياق، والتعلم المستمر، واتخاذ قرارات معقدة بشكل مستقل، مما يعيد تشكيل النظام على السلسلة، ويدفع التدفقات المالية، بل ويقود التصويت في الحوكمة واتجاهات السوق. إن ظهور الوكلاء الذكيين يدل على أن نظام Web3 البيئي، الذي كان مركزه "مشاركة البشر"، يتطور إلى نمط جديد من "التعايش بين الإنسان والآلة".
ومع ذلك، فإن الصعود السريع لوكلاء الذكاء الاصطناعي قد جلب تحديات غير مسبوقة: كيف يمكن التعرف على هوية هؤلاء الوكلاء والمصادقة عليها؟ كيف يمكن الحكم على مصداقية سلوكهم؟ في شبكة لامركزية وغير مرخصة، كيف يمكن ضمان عدم استخدام هؤلاء الوكلاء بشكل غير صحيح أو التلاعب بهم أو استخدامهم في الهجمات؟
لذلك، أصبح إنشاء بنية تحتية على السلسلة يمكنها التحقق من هوية وسمعة وكيل الذكاء الاصطناعي، هو القضية الأساسية في المرحلة التالية من تطور Web3. سوف تحدد تصميم آليات التعرف على الهوية والسمعة وإطار الثقة، ما إذا كان يمكن لوكيل الذكاء الاصطناعي تحقيق التعاون السلس مع البشر والمنصات، ولعب دور مستدام في النظام البيئي المستقبلي.
2. تحليل المشروع
2.1 مقدمة المشروع
تسعى Trusta.AI لبناء بنية تحتية للهوية والسمعة في Web3 من خلال الذكاء الاصطناعي.
أطلقت Trusta.AI أول نظام لتقييم قيمة مستخدمي Web3 - نظام تقييم السمعة MEDIA، والذي أنشأ أكبر بروتوكول للمصادقة الحقيقية والسمعة على السلسلة في Web3. يقدم خدمات تحليل البيانات على السلسلة والمصادقة الحقيقية لأعلى سلاسل مثل Linea و Starknet و Celestia و Arbitrum و Manta و Plume. تمت إكمال أكثر من 2.5 مليون مصادقة على السلسلة على سلاسل رئيسية مثل Linea و BSC و TON، لتصبح أكبر بروتوكول هوية في الصناعة.
تقوم Trusta بالتوسع من إثبات الإنسانية إلى إثبات وكيل الذكاء الاصطناعي، حيث حققت آلية ثلاثية تشمل إنشاء الهوية، وتQuantification الهوية، وحماية الهوية لتحقيق خدمات مالية على السلسلة ووسائل التواصل الاجتماعي على السلسلة لوكلاء الذكاء الاصطناعي، مما يبني أساس الثقة الموثوق في عصر الذكاء الاصطناعي.
2.2 بنية الثقة - وكيل الذكاء الاصطناعي DID
في مستقبل بيئة Web3، سيلعب وكيل الذكاء الاصطناعي دورًا حاسمًا، حيث يمكنهم إتمام التفاعلات والمعاملات على السلسلة، وكذلك إجراء عمليات معقدة خارج السلسلة. ومع ذلك، فإن كيفية التمييز بين وكيل الذكاء الاصطناعي الحقيقي والعمليات التي تتدخل فيها البشر تتعلق بجوهر الثقة اللامركزية. إذا لم يكن هناك آلية موثوقة للتحقق من الهوية، فإن هذه الكيانات ستكون عرضة للتلاعب أو الاحتيال أو الإساءة. ولهذا السبب، يجب أن تستند التطبيقات المتعددة لوكيل الذكاء الاصطناعي في المجالات الاجتماعية والمالية والإدارية إلى أساس قوي من التحقق من الهوية.
تتزايد تطبيقات وكيل الذكاء الاصطناعي، حيث تشمل مجالات متعددة مثل التفاعل الاجتماعي، وإدارة المالية، وصنع القرار الحكومي، وتتحسن مستويات استقلاليتها وذكائها باستمرار. لذلك، من الضروري ضمان أن يمتلك كل وكيل هوية فريدة وموثوقة (DID). إن غياب التحقق الفعال من الهوية يمكن أن يؤدي إلى استخدام وكيل الذكاء الاصطناعي بشكل غير قانوني أو التحكم فيه، مما يؤدي إلى انهيار الثقة والمخاطر الأمنية.
في المستقبل، في نظام Web3 البيئي المدفوع بالكامل بالوكالات الذكية، فإن هوية الاعتماد ليست فقط حجر الزاوية لضمان الأمان، بل هي أيضًا خط الدفاع الضروري للحفاظ على التشغيل الصحي للنظام البيئي بأكمله.
كونها رائدة في هذا المجال، قامت Trusta.AI بتطوير آلية موثوقة لشهادة الهوية الرقمية للوكيل الذكي بفضل قوتها التقنية الرائدة ونظام سمعتها الدقيق، مما يوفر ضمانًا قويًا للتشغيل الموثوق للوكيل الذكي، ويعمل على الحد من المخاطر المحتملة، ويعزز النمو المستدام للاقتصاد الذكي في Web3.
! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة
2.3 نظرة عامة على المشروع
2.3.1 حالة التمويل
يناير 2023: إكمال جولة تمويل بذور بقيمة 3 ملايين دولار، بقيادة SevenX Ventures و Vision Plus Capital، ومن بين المشاركين الآخرين HashKey Capital و Redpoint Ventures و GGV Capital و SNZ Holding وغيرها.
يونيو 2025: إكمال جولة تمويل جديدة، تشمل الجهات المستثمرة ConsenSys و Starknet و GSR و UFLY Labs وغيرها
2.3.2 حالة الفريق
بيت تشين: المؤسس المشارك والرئيس التنفيذي، نائب الرئيس السابق لمجموعة أنتي الرقمية، ورئيس المنتجات في أنتي للأمن التكنولوجي، والمدير العام السابق لمنصة الهوية الرقمية العالمية زولوز.
سايمون: المؤسس المشارك ورئيس قسم التكنولوجيا، سابقًا رئيس مختبر الأمن الذكي في مجموعة علي بابا، لديه خمسة عشر عامًا من الخبرة في تطبيق تقنيات الذكاء الاصطناعي في الأمان وإدارة المخاطر.
تمتلك الفريق خبرة تقنية عميقة وتجربة عملية في مجالات الذكاء الاصطناعي وإدارة المخاطر الأمنية، وهندسة أنظمة الدفع وآليات التحقق من الهوية، وتكرس جهودها منذ فترة طويلة لتطبيق البيانات الضخمة والخوارزميات الذكية في إدارة المخاطر الأمنية، بالإضافة إلى تصميم البروتوكولات الأساسية وتحسين الأمان في بيئات التداول ذات التزامن العالي، مما يوفر قدرات هندسية قوية وقدرة على تنفيذ الحلول المبتكرة.
3. الهيكل التقني
3.1 تحليل تقني
3.1.1 بناء الهوية - DID + TEE
من خلال مكون إضافي مخصص، يحصل كل وكيل AI على معرف لامركزي فريد على السلسلة (DID)، ويتم تخزينه بشكل آمن في بيئة تنفيذ موثوقة (TEE). في هذه البيئة المغلقة، يتم إخفاء البيانات الرئيسية وعملية الحساب تمامًا، وتظل العمليات الحساسة خاصة دائمًا، ولا يمكن للجهات الخارجية التطفل على تفاصيل التشغيل الداخلي، مما يشكل حاجزًا قويًا لأمان معلومات وكيل AI.
بالنسبة للوسطاء الذين تم إنشاؤهم قبل دمج المكون الإضافي، نعتمد على آلية التقييم الشاملة على السلسلة للتعرف على الهوية؛ بينما يمكن لوكلاء المكون الإضافي الجديد الحصول مباشرة على "شهادة الهوية" المصدرة من DID، مما يؤدي إلى إنشاء نظام هوية لوكيل AI يتمتع بالتحكم الذاتي والموثوقية وعدم القابلية للتلاعب.
3.1.2 قياس الهوية - إطار SIGMA الرائد
تلتزم فريق Trusta دائمًا بمبادئ التقييم الدقيق والتحليل الكمي ، وتهدف إلى إنشاء نظام موثوق للمصادقة على الهوية.
بنى فريق Trusta وبحث في فعالية نموذج MEDIA Score في سيناريو "إثبات الإنسانية" في البداية. يقوم هذا النموذج بتكميم صورة المستخدمين على السلسلة بشكل شامل من خمسة أبعاد، وهي: مبلغ التفاعل (Monetary)، المشاركة (Engagement)، التنوع (Diversity)، الهوية (Identity) والعمر (Age).
MEDIA Score هو نظام تقييم لقيمة المستخدمين على السلسلة، يتميز بالعدالة والموضوعية والقابلية للقياس. بفضل أبعاده الشاملة وطرقه الدقيقة، تم اعتماده على نطاق واسع من قبل العديد من سلاسل الكتل الرائدة مثل Celestia وStarknet وArbitrum وManta وLinea، كمعيار مرجعي مهم لتصفية مؤهلات الاستثمار في المشاريع الجديدة. إنه لا يركز فقط على قيمة التفاعل، بل يشمل أيضًا مؤشرات متعددة الأبعاد مثل النشاط، تنوع العقود، خصائص الهوية، وعمر الحساب، مما يساعد المشاريع في تحديد المستخدمين ذوي القيمة العالية بدقة، وزيادة كفاءة وعدالة توزيع الحوافز، مما يعكس سلطته واعترافه الواسع في الصناعة.
استنادًا إلى نجاح بناء نظام تقييم المستخدمين البشريين، قامت Trusta بنقل وترقية تجربة MEDIA Score إلى سيناريو AI Agent، وإنشاء نظام تقييم Sigma الذي يتناسب بشكل أفضل مع منطق سلوك الوكلاء الذكيين.
تقوم آلية تقييم Sigma ببناء نظام تقييم منطقي مغلق من "القدرة" إلى "القيمة" من خلال خمسة أبعاد. يركز MEDIA على تقييم تعدد مشاركة المستخدمين البشريين، بينما يركز Sigma أكثر على احترافية واستقرار الوكلاء الذكاء الاصطناعي في مجالات محددة، مما يعكس التحول من العرض إلى العمق ويتماشى بشكل أفضل مع احتياجات وكيل الذكاء الاصطناعي.
أولاً، على أساس القدرة المهنية ( Specification )، يعكس مستوى المشاركة ( Engagement ) ما إذا كان هناك استثمار مستقر ومستمر في التفاعل العملي، وهو الدعم الرئيسي لبناء الثقة والفعالية في المستقبل. التأثير ( Influence ) هو الارتداد من السمعة التي تنشأ بعد المشاركة في المجتمع أو الشبكة، مما يدل على مصداقية الوكيل وتأثير الانتشار. التقييم النقدي ( Monetary ) يقيّم ما إذا كان لديه القدرة على تراكم القيمة والاستقرار المالي في النظام الاقتصادي، مما يمهد الطريق لآلية تحفيز مستدامة. في النهاية، يتم استخدام معدل التبني ( Adoption ) كتمثيل شامل، حيث يمثل مستوى قبول هذا الوكيل في الاستخدام الفعلي، وهو التحقق النهائي لجميع القدرات والأداء المسبق.
هذا النظام يتطور بشكل متدرج، وهيكل واضح، يمكنه أن يعكس بشكل شامل الجودة الشاملة والقيمة البيئية لوكيل الذكاء الاصطناعي، مما يحقق تقييمًا كميًا لأداء الذكاء الاصطناعي وقيمته، ويحول المزايا والعيوب المجردة إلى نظام تقييم ملموس وقابل للقياس.
حالياً، تم推进 إطار SIGMA بالتعاون مع شبكات AI Agent المعروفة مثل Virtual وElisa OS وSwarm، مما يظهر إمكانياته الكبيرة في إدارة هوية الوكلاء الذكاء الاصطناعي وبناء أنظمة السمعة، وهو ما يجعله تدريجياً محركاً أساسياً لدفع بناء بنية تحتية موثوقة للذكاء الاصطناعي.
3.1.3 حماية الهوية - آلية تقييم الثقة
في نظام ذكاء اصطناعي حقيقي عالي المرونة وموثوقية، فإن الأمر الأكثر أهمية ليس فقط إنشاء الهوية، ولكن أيضًا التحقق المستمر من الهوية. تُدخل Trusta.AI مجموعة من آليات تقييم الثقة المستمرة، والتي يمكن أن تراقب الوكلاء الذكيين المعتمدين في الوقت الفعلي، لتحديد ما إذا كانوا تحت سيطرة غير قانونية، أو يتعرضون لهجوم، أو يتدخل فيهم أشخاص غير مصرح لهم. يقوم النظام بالتعرف على الانحرافات المحتملة خلال عملية تشغيل الوكيل من خلال تحليل السلوك والتعلم الآلي، مما يضمن أن كل سلوك للوكيل يبقى ضمن السياسات والإطار المحدد. تضمن هذه الطريقة الاستباقية اكتشاف أي انحراف عن السلوك المتوقع على الفور، وتفعيل تدابير الحماية التلقائية للحفاظ على سلامة الوكيل.
أنشأت Trusta.AI آلية حراسة أمنية متصلة دائمًا، تراقب في الوقت الحقيقي كل عملية تفاعل، لضمان أن جميع العمليات تتماشى مع معايير النظام والتوقعات المحددة.
! Trusta.AI: عبور فجوة الثقة في عصر الإنسان والآلة
3.2 مقدمة عن المنتج
3.2.1 AgentGo
تقوم Trusta.AI بتخصيص هويات لا مركزية لكل وكيل ذكاء اصطناعي على السلسلة (DID)، وتقوم بتقييمها وتصنيفها بناءً على بيانات السلوك على السلسلة، مما أنشأ نظام ثقة يمكن التحقق منه وقابل للتتبع لوكلاء الذكاء الاصطناعي. من خلال هذا النظام، يمكن للمستخدمين التعرف بكفاءة على وكالات الذكاء الاصطناعي عالية الجودة وتصفيتها، مما يحسن تجربة الاستخدام. حاليًا، أكملت Trusta جمع وتحديد وكلاء الذكاء الاصطناعي في الشبكة بأكملها، وقد منحتهم معرّفات لا مركزية، وأنشأت منصة فهرس موحدة تسمى AgentGo، مما يعزز التطور الصحي لنظام الوكالات الذكية.
1.استعلام والتحقق من هوية المستخدمين البشر:
من خلال لوحة المعلومات التي تقدمها Trusta.AI، يمكن للمستخدمين البشريين بسهولة استرجاع هوية ودرجة سمعة وكيل الذكاء الاصطناعي، وتحديد ما إذا كان موثوقًا.
يمكن للذكاء الاصطناعي قراءة واجهة الفهرس مباشرة بين بعضهم البعض، مما يحقق التأكيد السريع على الهوية والسمعة، وضمان أمان التعاون وتبادل المعلومات.
أصبح DID وكيل الذكاء الاصطناعي ليس فقط "هوية"، بل هو أيضًا الدعم الأساسي لبناء التعاون الموثوق، والامتثال المالي، وحوكمة المجتمع، وغيرها من الوظائف الأساسية، ليصبح البنية التحتية الضرورية لتطور النظام البيئي الأصلي للذكاء الاصطناعي. مع بناء هذا النظام، كل