摘要:DeepSeek 在年初的强势崛起,让全球侧目,也撕下了 Meta 长期以来引以为傲的最后一块遮羞布:“最强开源模型”。
大模型的 “卷”,是 “肉眼可见的卷”。
这一次是 Meta。
它甚至,破天荒的,选择了在周六这个休息日发布新模型。
面对各个强大竞争对手的“来势汹汹”,很明显,Meta 急了。
DeepSeek 在年初的强势崛起,让全球侧目,也撕下了 Meta 长期以来引以为傲的最后一块遮羞布:“最强开源模型”。
更不用提后来更加强大的闭源模型:OpenAI 的 o3、GPT-4.5;Anthropic 的 Claude 3.7 Sonnet、马斯克 xAI 的 Grok 3 以及 谷歌的 Gemini 2.5 Pro。
大模型排行榜上早已不见 Meta Llama 模型的身影。
而 Meta 旗下最顶级的模型 Llama 3.1 405B,它的发布已经是去年 7 月 23 日的事情了。
相比以往“不痛不痒”的轻量发布,这次 Meta 的动作颇有“不成功 便成仁”的意味。
三款模型,两个已发布并开源,一个预热,表面上是 Meta 给用户、市场、投资人这大半年的答卷,背后是 Meta 重夺“最强开源模型”的明确野心。
这一次,Llama 4 系列真的进入新阶段了吗?
Llama 4 系列包含三个不同参数的模型。
Llama 4 Scout:1090 亿参数 + 170 亿活跃参数 + 16 专家,轻量级、小参数通用模型,主打长上下文 + 多模态支持。Llama 4 Maverick:4000 亿参数 + 170 亿活跃参数 + 128 专家,定位旗舰通用模型,主打推理、代码、图像理解。Llama 4 Behemoth:2 万亿参数 + 2880 亿活跃参数 + 16 专家,还在训练中,被 Meta 自称为“史上最强开源教师模型”。整理成表格,方便小可爱们对比。
模型活跃参数专家数总参数量特点场景定位可用性Llama 4 Scout170亿161090亿支持1000万上下文长度,轻量快速,长文推理、图像定位极强边缘部署、多模态文档处理✅ 已开放下载(llama.com / Hugging Face)Llama 4 Maverick170亿1284000亿性能与多模态理解俱佳,图文兼容,推理能力超越GPT-4o通用AI、企业助手、聊天机器人✅ 已开放下载(llama.com / Hugging Face)Llama 4 Behemoth2880亿16近2万亿教师模型,性能极致,支持更复杂STEM任务蒸馏、科研、前沿AI能力拓展 训练中,暂未开放下载其实从 Meta 对 Llama 4 系列模型的命名上就能看出些许端倪。
Scout 是“探索者”,Maverick 是“特立独行者”,Behemoth 则是“巨兽”。
总结来看,Meta 想讲的并不只是“我们有三款模型”,而是:我们正在构建一个生态闭环。
先说参数量最小的 Llama 4 Scout。
这个模型参数量不算吓人,170 亿活跃参数,只用 1 张 H100 就能跑起来。
但它的上下文长度,直接拉到了 1000 万 tokens。
是的,你没看错,1000万。从 Llama 3 的 128K,一步跳到 Llama 4 Scout 的 1000 万,几乎等于把“上下文窗口”这条赛道提前打穿了。
不出意外地,这是目前全世界所有 AI 模型里,上下文最长的模型,比谷歌 Gemini 的 200 万 tokens 还要强。
当然,1000 万这个数字听起来虽然炫酷,但它到底意味着什么?
简单讲,你可以直接把全套《三体》、一堆合同、十几个 PRD + 代码全部塞进 Scout 的大脑里。
这让它天然适合:
Meta 给 Llama 4 Maverick 的定位很清晰,就是:面向对话场景的旗舰多模态模型。
Maverick 的技术参数和前面的 Scout 相同,也是 170 亿活跃参数,但专家数量翻了几倍,达到 128 个,总参数量 4000亿。作为对比,DeepSeek-V3 的参数量是 6710 亿,活跃参数为 370 亿。
不难看出,相比 Scout 的 “卷长”,Maverick 更强调 “卷强”。
换句话说,它不追求极限的上下文长度,而追求更高的单次推理质量和更好的图文理解。
从 Meta 官方给出的 Llama 4 Maverick 模型基准测试结果来看,它无疑是第一梯队的。
以仅二分之一的活跃参数,Llama 4 Maverick 就取得了超过 DeepSeek-V3 0324 的成绩,并且,多模态上明显“更胜一筹”,因为 DeepSeek 的模型还没有支持多模态类型(如图像、文件)的输入。
新模型发布前先上 LMSYS 大模型竞技场跑一跑分几乎成了一个必然,这次的 Llama 4 也不例外。
而在最新的 LMSYS 排行榜上,Llama 4 Maverick 刚发布就占据了第二名的宝座,仅次于谷歌的 Gemini 2.5 Pro,超越了之前的老牌强者,如 GPT-4o、Grok 3 等。
虽然 LMSYS 排行榜的打分和排名带有很强的客观性,但也能从侧面反映一些东西的。
另外,让我们期待一波 Llama 4 在 LiveBench 上的排名。
Behemoth,发音为 /bɪˈhiː.mɑːθ/(比赫马),是英文中 “巨兽” 的意思。
Behemoth 的存在更像是 Meta 给自己留的一手。
虽然目前尚未开源,只是预宣传,但 Meta 官方已经明确表示:Maverick 和 Scout,都是它蒸馏出来的。
换句话说,它是一个 “教师模型”。
在大模型训练中,教师模型通常指的是一个能力更强、体量更大的模型,用于指导或“传授知识”给较小模型。
这种过程叫做“蒸馏”,本质上是让小模型模仿大模型的思维方式、判断逻辑和回答风格,从而在保持高质量输出的同时,大幅减少推理成本。
一些 Llama 4 Behemoth 值得注意的参数:
活跃参数:2880亿。总参数量:近 2 万亿。使用 FP8 精度训练。每 GPU 实现 390 TFLOPs 计算效率。数据量:30 万亿 tokens(是 Llama 3 的 2 倍)。参数量如此庞大的模型,它的成本将会是一个恐怖的数字,你看 OpenAI 的 GPT-4.5 有多贵就知道了。
而这个用“算力”堆出来的模型,也确实值得有这样的基准测试表现:全面超越了 GPT-4.5、Claude 3.7 Sonnet 和 Gemini 2.0 Pro。
Llama 4 Scout 和 Llama 4 Maverick 已完全发布并开源。这意味着你可以像部署 DeepSeek 模型一样在本地部署这两个模型。
Llama 4 Behemoth 则还在训练中,不开放下载。
这里再说几个针对个人用户的使用方案。
首先,Meta 官方不提供任何 API 服务,只能通过其他渠道使用官方的 Llama 4。
比如 官网(meta.ai),WhatsApp,Messenger,和 Instagram Direct。但弊端是 Meta 官方并没有明确说明这些官方渠道集成的模型是 Scout 还是 Maverick。
如果想要调用 Llama 4 的 API,那就只有使用第三方 API 服务了。
这里当然首推我们的老伙计 OpenRouter,它已经第一时间上线了 Llama 4 Scout 和 Llama 4 Maverick 的 API,并且,完全免费。
我们当然可以说:Llama 4 是 Meta 有史以来最重磅、最用力的一次模型发布。
无论是模型性能、参数配置、基准测试结果,还是开源的诚意,都展现出一种“全力一搏”的姿态。
然而,不得不承认,Llama 4 的核心路径依然是熟悉的那一套 —— 用参数、数据和算力堆出领先,用蒸馏和 MoE 拉平成本。
创新也有,但不多。
甚至像业界已经完全采纳的推理模型、内置思维链,在这次的 Llama 4 发布中也缺席了。
所以我说,Llama 4 只是一个起点,不是终点。
云片AI:https://y-p.cc/?f=tt
(本文由 云片AI:https://y-p.cc/?f=tt 翻译)
来源:AIGC研究社一点号