Отсканируйте, чтобы загрузить приложение Gate
qrCode
Больше вариантов загрузки
Не напоминай мне больше сегодня.

Mistral возвращается с семейством передовых ИИ, которые напрямую конкурируют с DeepSeek

Арт, мода и развлечения на Decrypt.


Откройте для себя SCENE

Французский стартап в области ИИ Mistral, которого часто считали европейским аутсайдером на фоне доминирования американских гигантов и китайских новичков, внезапно догнал конкурентов: во вторник компания выпустила свою самую амбициозную разработку, которая способна составить серьёзную конкуренцию другим open-source решениям. (И даже бесплатно, в данном случае.)

Семейство из 4 моделей охватывает всё — от карманных ассистентов до системы на 675 миллиардов параметров, все они распространяются под свободной лицензией Apache 2.0. Модели доступны для скачивания — любой, у кого есть подходящее оборудование, может запускать их локально, модифицировать, дообучать или строить на их основе приложения.

Флагман компании, Mistral Large 3, использует разреженную архитектуру Mixture-of-Experts, которая активирует только 41 миллиард из 675 миллиардов общих параметров на каждый токен. Этот инженерный подход позволяет модели работать на уровне самых передовых решений, но с вычислительной нагрузкой, сопоставимой с моделью на 40 миллиардов параметров.

Mistral Large 3 была обучена с нуля на 3 000 видеокарт NVIDIA H200 и дебютировала на втором месте среди open-source моделей без рассуждений в рейтинге LMArena.

Соперничество в бенчмарках с DeepSeek показывает сложную картину. По данным собственных тестов Mistral, их лучшая модель превосходит DeepSeek V3.1 по нескольким метрикам, но проигрывает более новой V3.2 на несколько баллов в LMArena.

В задачах на общие знания и экспертное рассуждение семейство Mistral держится уверенно. DeepSeek опережает по скорости кодирования и математической логике. Но это ожидаемо: в этом релизе нет моделей для рассуждений, поэтому у этих моделей нет встроенной цепочки размышлений.

Маленькие модели «Ministral» особенно интересны для разработчиков. Три размера — 3B, 8B и 14B параметров — представлены в базовой и обучающей (instruct) версиях. Все изначально поддерживают ввод изображений. Модель на 3B привлекла внимание исследователя ИИ Саймона Уиллисона: он отметил, что она полностью запускается в браузере через WebGPU.

Если хотите попробовать, в этом пространстве на Huggingface вы можете загрузить её локально и взаимодействовать через веб-камеру.

Компетентный ИИ с поддержкой зрения в файле примерно 3 ГБ открывает новые возможности для разработчиков, которым важна эффективность, — и даже для энтузиастов: дроны, роботы, ноутбуки офлайн, встраиваемые системы в автомобилях и т.д.

Ранние тесты показывают двойственную «личность» моделей. В быстром тесте Mistral 3 Large показал хорошую беглость в диалогах. Иногда у него оформительский стиль GPT-5 (схожий язык и любовь к эмодзи), но с более естественным ритмом.

Mistral 3 Large также довольно мягок по части цензуры, что делает его лучшим выбором для быстрого ролевого взаимодействия по сравнению с ChatGPT, Claude или Gemini.

Для задач обработки естественного языка, креативного письма и ролевых игр пользователи отмечают, что instruct-версия на 14B довольно неплоха, но не выдающаяся. На Reddit в r/LocalLLaMA обращают внимание на склонность к повторениям и излишнюю опору на шаблонные фразы из обучающего датасета, но способность модели генерировать длинные тексты — приятный бонус, особенно для такого размера.

Разработчики, запускающие инференс локально, отмечают, что 3B и 8B модели иногда зацикливаются или выдают шаблонные ответы, особенно в творческих задачах.

Тем не менее, 3B настолько мала, что может работать даже на слабых устройствах вроде смартфонов и поддаваться дообучению под конкретные задачи. Единственный конкурент в этой нише сейчас — самая маленькая версия Google Gemma 3.

Бизнес уже начал внедрение. В понедельник HSBC объявил о многолетнем партнёрстве с Mistral для внедрения генеративного ИИ во всех своих операциях. Банк будет запускать модели на собственной инфраструктуре, сочетая внутренние технические возможности с экспертизой Mistral. Для финансовых институтов, обрабатывающих чувствительные данные клиентов в условиях GDPR, привлекательность ИИ-поставщика из ЕС с открытыми весами очевидна.

Mistral и NVIDIA совместно подготовили сжатую контрольную точку NVFP4, позволяющую Large 3 работать на одном узле с восемью топовыми видеокартами. NVIDIA утверждает, что Ministral 3B достигает примерно 385 токенов в секунду на RTX 5090 и более 50 токенов в секунду на Jetson Thor для робототехники. Это значит, что модель очень эффективна и быстра при инференсе, даёт быстрые ответы без потери качества.

Скоро появится версия Large 3, оптимизированная для рассуждений, говорится в анонсе. До тех пор DeepSeek R1 и другие китайские модели, такие как GLM или Qwen Thinking, сохраняют преимущество в задачах на явное рассуждение. Но для компаний, которым важны передовые возможности, открытые веса, мультилингвизм по европейским языкам и независимость от американских или китайских законов нацбезопасности, теперь выбор вырос с нуля до одного.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • комментарий
  • Репост
  • Поделиться
комментарий
0/400
Нет комментариев
  • Закрепить