"MOE"的搜索结果
22:05

通义千问发布其最具代理能力的代码模型Qwen3-Coder

金十数据7月23日讯,今天凌晨,通义千问正式发布Qwen3-Coder,这是其迄今为止最具代理能力的代码模型。通义千问表示,Qwen3-Coder拥有多个尺寸,但我们迫不及待地给大家提供当前最强大的版本,Qwen3-Coder-480B-A35B-Instruct。这是一个480B参数激活35B参数的MoE模型,原生支持256Ktoken的上下文并可通过YaRN扩展到1Mtoken,拥有卓越的代码和Agent能力。Qwen3-Coder-480B-A35B-Instruct在AgenticCoding、Agentic Browser-Use和Agentic
展开
AGENT0.86%
15:05

Kimi K2发布并开源,擅长代码与Agentic任务

金十数据7月11日讯,月之暗面宣布,正式发布KimiK2模型,并同步开源。据介绍,KimiK2是一款具备更强代码能力、更擅长通用Agent任务的MoE架构基础模型,总参数1T,激活参数32B。
AGENT0.86%
B3.93%
08:01

腾讯开源混元-A13B模型

金十数据6月27日讯,6月27日,腾讯发布并开源混元-A13B模型。据介绍,作为基于专家混合(MoE)架构的大模型,总参数800亿、激活参数130亿,在效果比肩顶尖开源模型的同时,大幅降低推理延迟与计算开销;极端条件下仅需1张中低端GPU卡即可部署。
B3.93%
03:13

Kimi开源多模态模型Kimi-VL、Kimi-VL-Thinking

金十数据4月10日讯,今日,月之暗面Kimi开源轻量级视觉语言模型Kimi-VL和Kimi-VL-Thinking,新模型采用MoE架构,支持128K上下文,激活仅约30亿参数;多模态推理能力在多个基准测试中,超过10倍大小的大模型。
03:44

Genius Group对LZGI高管提起4.5亿美元诉讼

Gate.io News bot消息,据吴说报道,纽交所上市公司Genius Group在佛罗里达南区地方法院对LZGI International, Inc的两位高管Peter Ritz和Michael Moe提起诉讼。诉讼依据为美国《反诈骗和腐败组织法》(RICO),索赔金额达4.5亿美元。 此前,纽约地方法院已对Genius Group下达禁令,禁止其通过出售股票募资购买比特币。
展开
BOT19.54%
BTC1.39%
02:26

汤姆猫:已接入DeepSeek等模型增强AI机器人产品的意图识别等功能

金十数据2月17日讯,2月16日晚,汤姆猫在投资者关系活动记录表中称,汤姆猫AI情感陪伴机器人产品采用MOE(混合专家模型)架构,搭载了公司与西湖心辰定制的 “汤姆猫情感陪伴垂直模型”,同时也调用了豆包、DeepSeek等模型的部分能力,有效增强了产品的意图识别、响应速度、数学能力等功能。
DEEPSEEK-11.04%
  • 4
  • 1
02:02

腾讯发布新一代大模型“混元Turbo” 推理成本降低50%

金十数据9月5日讯,在2024腾讯全球数字生态大会上,腾讯正式发布新一代大模型——腾讯混元Turbo。该模型采用MoE架构,比上一代产品推理效率提升100%,推理成本降低50%。对外,腾讯混元Turbo的价格也比混元Pro降低50%,输出价格为0.05元/千tokens,输入价格为0.015元/千tokens。
TURBO5.63%
  • 1
  • 3
01:49
分析:特朗普当选将有利于美国加密货币行业监管环境的转变 据分析师称,「加密货币领域的知名人物温克莱沃斯兄弟通过捐赠 200 万美元的比特币来支持特朗普的竞选活动。此举表明,特朗普在加密货币和传统金融(TradFi)社区中越来越被视为亲创新候选人。」 分析师认为,特朗普在 11 月的胜利将意味着美国加密货币行业监管环境的转变,变得更加有利。「在竞选期间,特朗普表现出了对比特币和其他加密货币的支持,这与现任政府更加谨慎和监管重的态度形成对比。特朗普政府可能会优先考虑建立一个明确且支持创新的监管框架,鼓励加密货币行业的创新和投资。」 然而,据乔·拜登的前高级顾问莫·韦拉(Moe Vela)表示,辩论的观众更关注的是哪个候选人在身体上、精神上以及可能在道德上更适合担任总统。「这场辩论更多的是关于性格的对比、不同的领导风范展示,以及两位八十岁老人试图证明他们的活力、精力和可行性。」
MAGA5.87%
  • 5
  • 1
06:21
据量子位报道,北京深度求索公司推出首个国产开源MoE大模型DeepSeek MoE,性能媲美Llama 2-7B,计算量降低60%。DeepSeek MoE 目前推出的版本参数量为 160 亿,实际激活参数量大约是 28 亿。此外,深度求索团队还透露,DeepSeek MoE 模型还有 145 B 版本正在研发。阶段性的初步试验显示,145 B 的 DeepSeek MoE 对 GShard 137 B 具有极大的领先优势,同时能够以 28.5% 的计算量达到与密集版 DeepSeek 67 B 模型相当的性能。
  • 1
08:00
据《科创板日报》12 月 28 日报道,中国大模型创业企业 MiniMax 副总裁魏伟在数字中国论坛成立大会暨数字化发展论坛的一场分论坛上透露称,将于近期发布国内首个基于 MoE(Mixture-of-Experts)架构的大模型,对标 OpenAI GPT-4。MoE 全称专家混合,是一种深度学习技术,它通过将多个模型直接结合在一起,以加快模型训练的速度,获得更好的预测性能。
  • 1
  • 1
02:58

高盛:宏观背景已变得对亚洲股市更加有利

高盛表示,宏观背景已变得对亚洲股市更加有利,但市场并未充分反映这一点,这意味着股市将继续上涨。包括Timothy?Moe在内的策略师在一份报告中写道,由于美国经济数据支持软着陆的前景,投资者应“利用夏末潜在的疲软季节性,为通常强劲的第四季度做准备”。市场已经部分(但不是全部)反映出经济增长和政策前景的转变。他们表示看好第四季度韩国、日本等股市,长期最看好印度股市。从长期来看,东盟也很有吸引力,而澳大利亚可能会保持区间波动
展开
  • 1
00:55
据《科创板日报》7 月 14 日报道,近期,网上开始出现了一些质疑声,不少用户抱怨 OpenAI 的 GPT-4 变得不那么强大了,有人称这个模型与其先前的推理能力以及其他输出相比变得“更懒惰(lazier)”和“更愚笨(dumber)”。部分业内人士认为,这可能和 OpenAI 对该系统的重大重新设计有关,他们推测 OpenAI 为让生成式模型输出质量更高、成本更低、响应更快,使用了混合专家(MoE)模型。
  • 2
加载更多
交易,随时随地
qrCode
扫码下载 Gate App
社群列表
简体中文
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)