👑
👑

Open-Weight King

  • 以 123B 参数规模比肩 Llama 3.1 405B。

  • 兼具高性能与开放特性的企业级首选模型。

Slide 1 of 3Remaining 2

AI 的霸权之争,不只是美国(OpenAI、Google、Meta)的舞台。 总部位于法国巴黎的 Mistral AI 再次带来惊喜。

“Mistral Large 2” 。 这款模型在开放权重(公开权重且可商用许可)的圈子里,是对 Meta Llama 系列最强有力的挑战者。

为什么是 Mistral Large 2?

一句话: “高效率” 。 参数量为 123B(1230 亿),约为 Llama 3.1 最大模型(405B)的四分之一。 然而在基准测试中却能与 405B 打平,甚至在特定任务上更胜一筹。

模型 参数量 上下文长度 MMLU (知识) HumanEval (代码)
Mistral Large 2 123B 128k 86.8% 92.0%
Llama 3.1 405B 405B 128k 88.6% 89.0%
GPT-4o Unknown 128k 88.7% 90.2%
ℹ️
专注编码

尤其值得关注的是 HumanEval 分数。92.0% 的成绩在现有 LLM 中也属顶级。代码生成方面,Mistral Large 2 是非常可靠的伙伴。

本地运行(vLLM)

由于是 123B 模型,消费级单卡 GPU(如 RTX 4090)即便量化也很吃力;但如果有云端 GPU(如单卡 H100),即可极速运行。

使用 vLLM 运行
pip install vllm

# 如果是 4bit 量化模型,显存约 48GB 的 GPU 也可运行
vllm serve mistralai/Mistral-Large-Instruct-v2 \
 --quantization awq \
 --tensor-parallel-size 1

当企业希望把“GPT-4 级智能”封装在自家服务器内,从成本与性能的角度看,Mistral Large 2 目前是最佳选择之一。

日语能力验证

在 Mistral Small(Mixtral 8x7B)时期,日语表现略显生硬,但 Large 2 已完全克服。 敬语的使用区分、对日本特有文化语境的理解也更顺畅,足以胜任商务文档的撰写。

结论:明智的选择

“只选最有名的”时代已结束,进入“按用途选择最合适的规模与成本”的时代。

Mistral Large 2 正是这种 “恰到好处的高性能” 的体现。 可以通过 API 使用,也可在 AWS Bedrock 上运行,或部署到自有服务器。正是这种灵活性,展现了开放权重的真正价值。

💡

面向工程师

涵盖从 Hugging Face 下载模型、量化,到用 vLLM 搭建高速推理服务器。面向本地部署 AI 的一本全能技术书。