Mistral claims its newest AI model delivers leading performance for the price | TechCrunch

Mistralは、パフォーマンスを損なうことなく、効率性を重視した新しいAIモデル「Mistral Medium 3」を発表しました。
このモデルは、入力トークンが100万トークンあたり0.40ドル、出力トークンが100万トークンあたり2ドルで提供され、AnthropicのClaude Sonnet 3.7モデルの90%と「同等かそれ以上」の性能を発揮すると主張しています。
また、MetaのLlama 4 MaverickやCohereのCommand Aといった最近のオープンモデルをを上回る性能を持っています。価格面では、APIシステムとセルフデプロイシステムの両方において、DeepSeek v3などのコストリーダーを上回っています。
トークンはデータ モデルが扱う生のビットであり、100万トークンは約750,000語に相当します (「戦争と平和」よりも約163,000語長い)。
Mistral Medium 3は、4つ以上のGPUを持つ自己ホスト環境を含む任意のクラウドに展開可能で、コーディングやSTEMタスクに最適です。金融サービス、エネルギー、ヘルスケアのクライアントがベータテストを行っており、顧客サービスやデータ分析などに利用されています。
このモデルは、AmazonのSagemakerプラットフォームで利用可能で、今後MicrosoftのAzure AI FoundryやGoogleのVertex AIプラットフォームでも提供される予定です。Mistralは、2023年に設立されたスタートアップで、これまでに11億ユーロ以上を調達しています。
また、企業向けチャットボットサービス「Le Chat Enterprise」を一般公開しました。このサービスは、AI「エージェント」ビルダーなどのツールを提供し、Gmail、Googleドライブ、SharePointなどのサードパーティサービスと統合されます。
Le Chat Enterpriseは、今年初めにプライベートプレビュー版として公開されていましたが、今回の発表により一般利用が可能となりました。
さらに、Le Chat Enterpriseは、Anthropicの標準規格であるMCPをまもなくサポートする予定です。このMCPは、AIアシスタントと外部ツールを接続するためのオープン規格であり、GoogleやOpenAIなどの他の主要なAIモデルプロバイダーも採用を発表しています。これにより、企業はより多様なデータソースとAIアプリケーションを統合しやすくなります。
同社はブログ投稿で、今後数週間以内にさらに大型のモデルを発売する予定であると予告しました。
Medium is the new large. | Mistral AI
https://mistral.ai/news/mistral-medium-3

