👀 家人们,每天看行情、刷大佬观点,却从来不开口说两句?你的观点可能比你想的更有价值!
广场新人 & 回归福利正式上线!不管你是第一次发帖还是久违回归,我们都直接送你奖励!🎁
每月 $20,000 奖金等你来领!
📅 活动时间: 长期有效(月底结算)
💎 参与方式:
用户需为首次发帖的新用户或一个月未发帖的回归用户。
发帖时必须带上话题标签: #我在广场发首帖 。
内容不限:币圈新闻、行情分析、晒单吐槽、币种推荐皆可。
💰 奖励机制:
必得奖:发帖体验券
每位有效发帖用户都可获得 $50 仓位体验券。(注:每月奖池上限 $20,000,先到先得!如果大家太热情,我们会继续加码!)
进阶奖:发帖双王争霸
月度发帖王: 当月发帖数量最多的用户,额外奖励 50U。
月度互动王: 当月帖子互动量(点赞+评论+转发+分享)最高的用户,额外奖励 50U。
📝 发帖要求:
帖子字数需 大于30字,拒绝纯表情或无意义字符。
内容需积极健康,符合社区规范,严禁广告引流及违规内容。
💡 你的观点可能会启发无数人,你的第一次分享也许就是成为“广场大V”的起点,现在就开始广场创作之旅吧!
Mistral强势回归,推出与DeepSeek正面竞争的Frontier AI系列
Decrypt的艺术、时尚与娱乐中心。
探索SCENE
法国AI初创公司Mistral,常被视为在美中巨头主导领域中的欧洲“陪跑者”,如今迎头赶上:周二发布了迄今为止最具野心的产品,让开源领域的竞争变得白热化。(或者说,这次连钱都不收。)
该系列共4款模型,涵盖了口袋级助手到拥有6750亿参数的尖端系统,全部采用宽松的Apache 2.0开源许可协议。所有模型均可公开下载——任何拥有合适硬件的人都可以在本地运行、修改、微调,或基于其开发应用。
旗舰产品Mistral Large 3采用稀疏混合专家(Mixture-of-Experts)架构,每个token只激活6750亿总参数中的410亿。这一工程选择让它拥有前沿性能的同时,推理时的算力需求更接近于一个400亿参数模型。
Mistral Large 3完全从零开始训练,使用了3000块NVIDIA H200 GPU,并在LMArena排行榜上成为开源非推理模型中的第二名。
与DeepSeek的基准竞争呈现出复杂的局面。根据Mistral的基准测试,其最佳模型在多个指标上超过了DeepSeek V3.1,但在LMArena上被更新的V3.2略微甩开几分。
在通用知识和专家推理任务上,Mistral系列表现不俗。DeepSeek领先的地方在于编码速度和数学逻辑能力。但这是意料之中的:此次发布不包含推理模型,因此这些模型架构中没有嵌入“思维链”。
更小的“Ministral”模型则为开发者带来了新鲜感。三种尺寸——3B、8B和14B参数——均提供基础版和指令微调版。全部原生支持视觉输入。3B模型吸引了AI研究员Simon Willison的注意,他指出该模型可通过WebGPU完全在浏览器中运行。
如果你想尝试,可以在这个Huggingface空间本地加载它,并通过摄像头交互输入。
一个具备视觉能力、仅约3GB文件大小的AI,为追求高效的开发者甚至业余爱好者打开了新的可能性:无人机、机器人、离线运行的笔记本、车载嵌入式系统等。
早期测试显示该系列模型表现各异。在快速测试中,我们发现Mistral 3 Large在对话流畅性方面表现出色。有时它的格式风格类似GPT-5,(语言风格和表情符号偏好也相似),但语调更自然。
Mistral 3 Large在内容审查方面也较为宽松,在ChatGPT、Claude或Gemini之间选择快速角色扮演时表现更佳。
在自然语言任务、创意写作和角色扮演方面,用户普遍认为14B指令版表现不错但不算突出。Reddit上r/LocalLLaMA的讨论指出,其存在重复和过度依赖训练数据中模板化短语的问题,但其生成长文本内容的能力对同级别模型来说是加分项。
开发者在本地推理时发现3B和8B模型有时会陷入循环,或在创意任务中输出模式化内容。
不过,3B模型体积小到可以在智能手机等低性能硬件上运行,并可针对特定用途进行训练/微调。目前该细分领域唯一的竞争者是Google Gemma 3的最小版本。
企业级应用已开始推进。汇丰银行周一宣布与Mistral达成多年合作,将在运营中部署生成式AI。该行将在自有基础设施上本地运行模型,结合内部技术能力与Mistral的专业知识。对于需遵循GDPR、处理敏感客户数据的金融机构来说,拥有开源权重且总部位于欧盟的AI供应商极具吸引力。
Mistral与NVIDIA合作推出了NVFP4压缩检查点,使Large 3可在单节点8张旗舰显卡上运行。NVIDIA表示,Ministral 3B在RTX 5090上可达到约385 tokens/s,在机器人专用Jetson Thor上超过50 tokens/s。这意味着该模型推理效率极高,响应更快且不损失质量。
公告称,专为推理优化的Large 3版本即将推出。在此之前,DeepSeek R1及中国的GLM、Qwen Thinking等模型在显式推理任务上仍有差异化。但对于企业来说,如果需要前沿能力、开源权重、覆盖欧洲多语种、且不受中美国家安全法律约束的公司,选择已从零增至一。