نتائج البحث عن "MOE"
15:05

تم إصدار Kimi K2 ومفتوح المصدر، وهو متخصص في المهام البرمجية وAgentic.

جين10 بيانات 11 يوليو ، أعلنت الجانب المظلم من القمر عن إصدار نموذج KimiK2 رسميًا ، وتم فتح المصدر في نفس الوقت. ووفقًا للتعريف ، فإن KimiK2 هو نموذج أساسي يعتمد على بنية MoE ويتميز بقدرة برمجية أقوى ومهارة أكبر في مهام الوكلاء العامة ، مع إجمالي معلمات 1T ومعلمات نشطة 32B.
المزيد
AGENT3.74%
B4.79%
08:01

نموذج تيك توك مفتوح المصدر - A13B

جين10 بيانات 27 يونيو ، 27 يونيو ، أصدرت Tencent نموذج هونغ يوان-A13B مفتوح المصدر. ووفقًا للتقارير ، كنموذج كبير يعتمد على بنية خلط الخبراء (MoE) ، فإن إجمالي المعلمات هو 80 مليار ، والمعلمات النشطة 13 مليار ، بينما يمكن أن تتنافس النتائج مع أفضل النماذج مفتوحة المصدر ، مع تقليل كبير في وقت الإستجابة ونفقات الحساب ؛ في ظل ظروف قاسية ، يمكن نشره باستخدام بطاقة GPU متوسطة إلى منخفضة واحدة فقط.
المزيد
B4.79%
03:13

Kimi مفتوح المصدر نموذج متعدد الوسائط Kimi-VL، Kimi-VL-Thinking

جين10 البيانات 10 أبريل ، اليوم ، تم إصدار نموذج لغة بصري خفيف الوزن مفتوح المصدر Kimi-VL و Kimi-VL-Thinking من كيمي ، النموذج الجديد يستخدم بنية MoE ، يدعم 128K سياق ، ويشغل حوالي 3 مليارات معلمة فقط ؛ القدرة على الاستدلال متعدد الوسائط في عدة اختبارات معيارية تتجاوز نماذج كبيرة بحجم يزيد عن 10 مرات.
المزيد
02:26

توم وجيري: تم توصيله بنماذج مثل DeepSeek لتعزيز منتجات الروبوتات الذكية AI مثل التعرف على النوايا

أخبار بيانات Jinshi في 17 فبراير، في المساء في 16 فبراير، ذكر Tomcat في سجل فعاليات العلاقات مع المستثمرين أن منتج الروبوت المرافق للعواطف الذكاء الاصطناعي Tomcat يعتمد على هيكل MOE (نموذج خبير مختلط)، ويحمل "نموذج عمودي مصمم خصيصًا لمرافقة العواطف ل Tomcat" الذي قامت الشركة بتخصيصه بالتعاون مع Xi Lake Heart Chen، وفي الوقت نفسه يستخدم أيضًا قدرات جزئية من الفاصوليا و DeepSeek وغيرها من النماذج، مما يعزز بشكل فعال تعرف النية وسرعة الاستجابة والقدرة الرياضية الخاصة بالمنتج.
المزيد
DEEPSEEK-10.99%
  • 4
  • 1
02:02

تينسن يطلق الجيل الجديد من النموذج الكبير "هونيان توربو" تكلفة الاستدلال اسقاط50%

في 5 سبتمبر ، أعلن تينسنت رسميًا في مؤتمر Tencent Global Digital Ecology 2024 عن الجيل الجديد من النموذج الكبير - Tencent Mixed Yuan Turbo. يستخدم هذا النموذج تركيبة MoE ، ويزود بكفاءة استدلال تعزز بنسبة 100٪ مقارنة بالجيل السابق من المنتجات ، ويقلل تكلفة الاستدلال بنسبة 50٪. من الناحية الخارجية ، فإن سعر Tencent Mixed Yuan Turbo أرخص بنسبة 50٪ من Mixed Yuan Pro ، بسعر 0.05 يوان لكل 1000 رمز ، وسعر الإدخال هو 0.015 يوان لكل 1000 رمز.
TURBO5.87%
  • 1
  • 3
06:21
وفقا لتقارير qubit ، أطلقت شركة Beijing Depth Quest Company أول نموذج محلي مفتوح المصدر لوزارة التربية والتعليم DeepSeek MoE ، والذي يمكن مقارنته ب Llama 2-7B في الأداء ويسقط مقدار الحساب بنسبة 60٪. يحتوي الإصدار الحالي من DeepSeek MoE على 16 مليار معلمة ، ويبلغ العدد الفعلي للمعلمات المنشطة حوالي 2.8 مليار. بالإضافة إلى ذلك ، كشف فريق Depth Seek أيضا أن هناك نسخة 145 B من نموذج DeepSeek MoE قيد التطوير. أظهرت التجارب الأولية المرحلية أن 145 B DeepSeek MoE يتمتع بميزة كبيرة على GShard 137 B ، مع القدرة على تحقيق أداء مماثل للإصدار المكثف من طراز DeepSeek 67 B بجهد حسابي بنسبة 28.5٪.
  • 1
08:00
وفقا لتقرير صادر عن مجلس الابتكار العلمي والتكنولوجي اليومي في 28 ديسمبر ، كشف وي وي ، نائب رئيس MiniMax ، وهي شركة صينية ناشئة للنماذج واسعة النطاق ، في منتدى فرعي للاجتماع الافتتاحي لمنتدى الصين الرقمية ومنتدى التنمية الرقمية أنه سيصدر أول نموذج واسع النطاق يعتمد على بنية MoE (خليط الخبراء) في الصين في المستقبل القريب لقياس OpenAI GPT-4. MoE ، التي تعني Expert Hybrid ، هي تقنية تعلم عميق تجمع بين نماذج متعددة معا مباشرة لتسريع تدريب النموذج للحصول على أداء تنبؤي أفضل.
  • 1
  • 1
00:55
وفقًا لتقرير "Kechuangban Daily" في 14 يوليو ، بدأت بعض الشكوك تظهر على الإنترنت مؤخرًا ، ويشكو العديد من المستخدمين من أن GPT-4 الخاص بـ OpenAI أصبح أقل قوة. يعتقد بعض الأشخاص في الصناعة أن هذا قد يكون مرتبطًا بإعادة تصميم OpenAI الرئيسية للنظام ، ويتوقعون أن تستخدم OpenAI نموذج خبير مختلط (MoE) لجعل ناتج النموذج التوليدي أعلى جودة وتكلفة أقل واستجابة أسرع.
  • 2
تحميل المزيد
العلامات الساخنة

أهم المواضيع

المزيد

تقويم العملات الرقمية

المزيد
فتح العملات
سيتم فتح 181,000,000 رمز GRASS في 28 أكتوبر، مما يشكل حوالي 74.21% من المعروض المتداول حالياً.
2025-10-27
إطلاق الشبكة الرئيسية v.2.0
سيتم إطلاق شبكة DuckChain عملة الرئيسية v.2.0 في أكتوبر.
2025-10-27
إطلاق StVaults
أعلنت Lido أن stVaults ستطلق على الشبكة الرئيسية في أكتوبر كجزء من ترقية Lido v.3.0. في غضون ذلك، يمكن للمستخدمين استكشاف الميزات على شبكة الاختبار. يهدف الإصدار إلى تعزيز بنية إثريوم الخاصة بالتخزين من خلال هيكلية خزائن جديدة.
2025-10-27
الاحتكار
سيدوس ستستضيف AMA في أكتوبر.
2025-10-27
ترقية شبكة فورت
تعلن Flow عن ترقية Forte، المقرر إطلاقها في أكتوبر، والتي تقدم أدوات وتحسينات في الأداء لتحسين تجربة المطورين وتمكين التطبيقات الجاهزة للاستخدام من قبل المستهلكين داخل السلسلة باستخدام الذكاء الاصطناعي. تتضمن التحديثات ميزات جديدة للغة Cadence، ومكتبة من المكونات القابلة لإعادة الاستخدام، وتحسينات في البروتوكول، واقتصاد العملة المنقح. سيقوم المطورون الحاليون والجدد على Flow بإصدار التطبيقات والترقيات التي تستفيد من أحدث القدرات. سيتم مشاركة تفاصيل إضافية في 14 أغسطس في براغما نيويورك قبل hackathon ETHGlobal.
2025-10-27