Mistralが最先端AIファミリーで復活、DeepSeekと真っ向勝負

Decryptのアート、ファッション、エンターテインメントハブ。


SCENEを発見

フランスのAIスタートアップMistralは、アメリカの巨大企業や中国の新興勢に支配された分野で欧州のアンダードッグとしてしばしば軽視されてきましたが、ついに追いつきました。火曜日にこれまでで最も野心的なリリースを発表し、オープンソースの競合他社に大きな衝撃を与えました。(今回は文字通り「無料」です。)

この4つのモデルファミリーは、ポケットサイズのアシスタントから6750億パラメータを持つ最先端システムまで幅広く、すべて寛容なApache 2.0オープンソースライセンスのもとで提供されます。各モデルは一般公開されており、適切なハードウェアを持っていれば誰でもローカルで実行、改変、ファインチューニング、またはアプリケーション開発が可能です。

フラッグシップであるMistral Large 3は、トークンごとに6750億パラメータ中410億のみを活性化させるスパースMixture-of-Expertsアーキテクチャを採用しています。この技術選択により、最先端のパフォーマンスを維持しつつ、実際の推論時の計算コストは約400億パラメータ相当で済みます。

Mistral Large 3は、3,000基のNVIDIA H200 GPUでゼロからトレーニングされ、LMArenaリーダーボードでオープンソースかつ非推論モデルとして2位デビューを果たしました。

DeepSeekとのベンチマーク競争は複雑な様相を呈しています。Mistralのベンチマークによると、最上位モデルはDeepSeek V3.1をいくつかの指標で上回りますが、最新のV3.2とはLMArena上で数ポイント差で劣ります。

一般知識や専門的な推論タスクでは、Mistralファミリーも健闘しています。DeepSeekが優位なのは、純粋なコーディング速度や数学的論理です。しかし、それも当然です。今回のリリースには推論モデルが含まれていないため、これらのモデルにはチェーン・オブ・ソート的な思考パターンが組み込まれていません。

開発者にとって特に興味深いのは、より小型の「Ministral」モデルです。3B、8B、14Bの3サイズがあり、それぞれベース版とインストラクション版が用意されています。いずれもビジョン入力を標準でサポート。3BモデルはAI研究者Simon Willisonの注目を集め、WebGPU経由で完全にブラウザ内で実行可能と指摘されています。

もし試してみたい場合は、このHugginfaceスペースでローカルにロードし、ウェブカメラ入力を使って対話できます。

約3GBのファイルに収まるビジョン機能付きAIは、効率を求める開発者や趣味のドローン、ロボット、オフライン動作のノートPC、車載組込みシステムなど、さまざまな可能性を広げます。

初期テストでは、モデルによって性格が異なることが分かっています。簡単なテストでは、Mistral 3 Largeは会話の流暢さに優れていました。時折GPT-5のような書式((類似した言語スタイルや絵文字の好み))を持ちつつも、より自然なリズムがあります。

Mistral 3 Largeは検閲も比較的緩く、ChatGPT、Claude、Geminiの中から素早くロールプレイしたい場合には良い選択肢です。

自然言語タスクやクリエイティブライティング、ロールプレイでは、ユーザーは14Bインストラクション版を「かなり良いが特別優れているわけではない」と評価。r/LocalLLaMAのRedditスレッドでは繰り返しや訓練データからの定型表現への依存が指摘されつつも、長文生成能力はこのサイズとしては大きな強みです。

ローカル推論を行う開発者からは、3Bや8Bモデルがクリエイティブなタスクで時々ループしたり定型的な出力を返すことが報告されています。

とはいえ、3Bモデルは非常に小型なのでスマートフォンのような低スペック機器でも動作し、特定目的向けの学習やファインチューニングも可能です。現時点でこの分野の唯一の競合はGoogleのGemma 3の最小バージョンです。

すでにエンタープライズ導入も進んでいます。HSBCは月曜日、Mistralとの複数年パートナーシップを発表し、業務全体で生成AIを導入する計画です。同行は自社インフラ上で自己ホスト型モデルを運用し、社内技術力とMistralの専門性を組み合わせます。GDPRの下で機密顧客データを扱う金融機関にとって、EU拠点かつオープンウェイトなAIベンダーの存在は大きな魅力となります。

MistralとNVIDIAは、Large 3を最良の8枚カード1ノードで動作させるNVFP4圧縮チェックポイントを共同開発しました。NVIDIAはMinistral 3BがRTX 5090で約385トークン/秒、ロボティクス用途のJetson Thorでも50トークン/秒超を記録すると発表。つまり、モデルは非常に効率的かつ高速で推論でき、品質を損なうことなく迅速な応答が得られます。

アナウンスによれば、推論最適化版のLarge 3も近日公開予定です。それまでは、DeepSeek R1やGLM、Qwen Thinkingなど中国モデルが明示的推論タスクで差別化を維持します。しかし、最先端の機能、オープンウェイト、欧州言語での多言語対応、そして中国や米国の国家安全保障法の影響を受けないAIベンダーを求める企業にとって、選択肢はゼロから一つに広がりました。

原文表示
このページには第三者のコンテンツが含まれている場合があり、情報提供のみを目的としております(表明・保証をするものではありません)。Gateによる見解の支持や、金融・専門的な助言とみなされるべきものではありません。詳細については免責事項をご覧ください。
  • 報酬
  • コメント
  • リポスト
  • 共有
コメント
0/400
コメントなし
  • ピン