摘要:上次提到了:“或许是因为最近Meta财报发布,或许是因为最近Llama受到的非议太多,或许是因为小扎个人的分享欲爆棚,他在和Ben Thompson的访谈的前后脚,还接受了这档商业人文播客Dwarkesh Podcast的访谈。相比那篇主要谈的是Meta自己,
上次提到了:“或许是因为最近Meta财报发布,或许是因为最近Llama受到的非议太多,或许是因为小扎个人的分享欲爆棚,他在和Ben Thompson的访谈的前后脚,还接受了这档商业人文播客Dwarkesh Podcast的访谈。相比那篇主要谈的是Meta自己,这个访谈犀利点评他人更多,他聊到了OpenAI、聊到了谷歌的Gemini,聊到了Anthropic,全程还提及14次DeepSeek,8次China,4次Trump。”
本次访谈的上篇《扎克伯格谈DeepSeek(上):他们做了令人惊叹的底层优化,但还不支持多模态》,可以点击超链接阅读,这里带来下篇。
本次访谈的几大主题:
Llama 4、基准测试刷榜、开源vs闭源之争AI爆炸,但AGI 的商业模式是什么?DeepSeek和中国、export controls和TrumpOrion智能眼镜、人与 AI 的关系,如何避免被技术的奖励机制劫持?Llama 4 和其他AI模型的比较以下是整个访谈的内容目录,本篇只包含后5个部分。
一、How Llama 4 compares to other models
二、Intelligence explosion
三、AI Friends, Therapists & Girlfriend
四、 DeepSeek & China
五、Open source AI
六、Monetizing AGI
七、The role of a CEO
八、Is big tech aligning with Trump?
九、100x productivity
(我总觉得吧,我给他做的图片有点过帅了......)
五、Open source AI
Dwarkesh Patel:最近 Sam Altman 在推特上说,OpenAI 将发布一款开源的SOTA 推理模型,他还顺带调侃,说不会干“用户不超过7亿才能用”之类的蠢事。(you can only use it if you have less than 700 million users. 指申请使用Llama模型的公司。)
DeepSeek 直接采用 MIT 许可,而 Llama 许可里有几条附带条件:你用它做应用时要在显著位置标注 “built with Llama”,或者用 Llama 继续训练出的模型名字必须以 “Llama” 开头。
你觉得 Llama 的许可,是不是对开发者太苛刻?要不要再宽松些?
Mark Zuckerberg:说实话,开源大语言模型这条路,基本算是我们先趟出来的,所以我并不觉得许可证苛刻。最开始大家甚至还在争论:
把大模型开源,这事到底可不可行?能否在保持安全、可信的同时开源?开源模型能否做到足够强,让人真正想用?当时Meta做了大量艰苦的工作,虽然也有其他团队,但真正把局面彻底打开的还是Llama系列。
既然我们投入了那么多资源,至少得在大型云厂商——微软、亚马逊、谷歌——把我们的模型拿去卖钱之前,跟我们坐下来谈谈商业安排吧?
我们的许可证,初衷并不是阻止任何人使用,如果你是那类巨头(有7亿用户以上的),比如Apple,那就来聊一聊,一起找个双赢的方式。
到目前为止,这样的做法运行得很好。
当然,如果哪天开源生态百花齐放、大家都有好模型,而Llama的这些许可证,反倒成了绊脚石,我们也会重新评估策略。
但现在,并没有公司真的跑来抱怨“7亿用户”的条款,反倒是一些开源原教旨主义者总是嚷嚷:“这还算纯粹开源吗?”,但是他们并不是真正的客户。
这种关于GPL、闭源API、二次开源义务的争论,自开源模型诞生就存在。
可问题是,训练这些模型,要花几十亿美元,要求和我们同级别的大公司在使用之前先来谈一谈,我觉得再正常不过。
DP:假设,今后出现一堆同样出色的开源模型,某些模型在编码等特定任务上甚至更强。那时开源生态已百花齐放,Meta 内部搞软件工程、或面向自家应用部署时,会不会干脆选用别的模型,而不一定非得使用Llama?
MZ:这得先退一步看,我们之所以自己训练大模型,是因为我们想要的东西市面上没有。就算其他模型开源,你也得面对它们在架构、尺寸上的权衡,那直接关系到延迟和推理成本。而我们公司的规模太大,这些细节特别重要。
比如,Llama Scout和Maverick设计成现在这个大小,是为了能单机运行、满足某些语音场景的实时性:从眼镜到所有应用、再到Meta AI App,都要用同一套底层能力。
只有自己造轮子,命运才掌握在自己手里。
当然,AI终将嵌入公司里的每一个环节。某些内部工具如果用Claude更合适,那就用 Claude,没必要自缚手脚。
至于其他人也在做开源、我们就不重要了,我倒不是很担心。如果没有 Meta把方向推到开源,那些团队还会开源吗?
很多公司是看到趋势,不得不跟,但他们真实的偏好是什么?Android 就是例子,开始很开放,现在却越收越紧。
如果Meta停下来,也许别人就缩回去闭源了。基于这种不确定性,我们不能把未来押在别人持续开源的承诺上。
DP:你还提到“最好让行业标准建立在美国模型,比如 Llama 上,我想弄清背后的逻辑。有些网络效应场景确实这样,比如苹果的App Store。
但如果某个框架最初适配 DeepSeek,难道转到 Llama 4 很难吗?毕竟 Llama 3 还不是 MoE,Llama 4 就是了,每代模型自己也在变化。你为何认为,生态会按单一标准形成“锁定”?
MZ:我说的标准,更多指模型里蕴含的价值观与世界观。
早期,我们拿Llama的一个版本做过多语种翻译,好像是法语,法国用户看了反馈说:“这听起来像个会法语的美国人在说话,而不是地道法国人。”
并不是语言不通顺,而是思考方式带着美国味,这说明模型会把训练语料的文化内核带进去。
随着模型更强,它们理应能体现多元价值观。但我们测试一些来自中国的模型时,确实发现特定价值取向,已经深深嵌在里头,不是轻描淡写微调就能改掉的。
再看推理模型,如果它只做可验证的数学题,那文化偏见问题就很小,可编程领域还要担心安全问题:万一某模型跟某国政府有联系,悄悄在代码里埋后门怎么办?
未来,你的系统全靠它守护,某天它突然暴露漏洞,而那个国家早就知道了,而你只有等着被黑。
因此,开源真正吸引人的一点是可“蒸馏”。多数人,不会直接拿Llama原模型去跑,而是微调或蒸馏成小模型,对Behemoth级别的巨大模型来说,尤其如此。
从高IQ大模型,蒸馏到小模型,保留90-95%的智能,规模和成本却只是 10%,这对很多场景早就足够,而且十分划算。
更妙的是,如今开源社区百花齐放,可以蒸馏的模型不只 Llama。
一种做法是:Llama 在多模态、推理效率等方面非常强,而另一款模型在代码生成上表现更好,你完全可以把二者一起蒸馏,为自己的应用场景打造一个综合表现优于任何单一模型的新模型。
不过,这就引出了安全问题:如何确保蒸馏过程本身可靠、可控?
我们投入了大量时间研究,发现凡是涉及语言的,就不可避免地夹带价值观。若不想直接继承源模型的全部价值取向,就不宜把完整的语言世界模型原封不动地蒸馏过来。
对于“可验证领域”的推理任务,情况要简单得多——只要把范围限定在可验证的题目,再配合代码整洁度和安全过滤(例如开源的Llama Guard或我们推出的Code Shield工具),就能较好地控制输入输出的安全性。
接下来还需要大量red team测试,让专家持续“挑刺”,确认蒸馏后模型没有出现不受欢迎的行为。
综合运用这些手段,我们基本可以在可验证推理领域实现安全蒸馏。对此我相当有信心,也做了深入研究。
当然,这仍是个大课题,如何在释放巨大价值的同时,妥善处理潜在偏见与安全隐患。
六、AGI的商业化 Monetizing AGI
DP:谈到即将释放的价值value to be unlocked,你认为 AI 最合适的商业化路径是什么?数字广告确实很赚钱,但在整体GDP中,只占很小一部分,相比之下,所有远程工作的生产总值,要大得多。即使只是在不取代岗位的前提下,提升生产率,其价值也可能以数十万亿美元计。
广告,会不会并非最终答案?你是怎么思考这个问题的?
MZ:正如我们之前讨论的,不同应用场景会对应不同的商业模式。
当你想向用户免费提供服务时,广告是理想方式。
既然免费,总得有收入来源来覆盖成本,广告正好解决了“用户不用付钱,也能享受极佳体验”的问题。
而且,如果广告系统做得好,许多情况下,广告本身还能提升体验价值。
要做到这一点,你必须擅长排序,并且拥有足够多的广告主。假设系统里只有5个广告主,再怎么精细排序,也未必能向某位用户展示他真正感兴趣的东西。
可如果有 100 万个广告主,再加上优秀的匹配算法,就极有可能挑出“干草堆里的那根针”,正中用户的需要。
所以广告,肯定有它的位置。但同时,也会出现成本更高、根本不适合用免费模式来做的业务形态,这种情况一直存在。
为什么社交媒体是免费的、靠广告支撑,而看Netflix或ESPN,就得付费?因为那类内容,制作本身成本极高,广告收入无法弥补,用户就必须掏钱。
结果是规模变小:使用人数从数十亿降到数亿,这是一种价值取舍。
AI也是类似逻辑,并非所有人都需要一个,或者一千个“软件工程师代理”。但如果你真有需求,花个几千、几万,甚至几十万美元去买,你可能也是愿意的。
这说明,未来会存在一整条多样化的商业模式光谱,对Meta而言,面向大众的部分,我们必然提供免费的服务,很大概率依旧是广告模式。
但我们同样需要一种能够支撑“随意调用大量算力、完成更惊艳任务”的付费方案,也就是付费版或高级版。
总的来说,我们的核心价值观还是尽可能服务全球最多的人。
七、CEO的角色 The role of a CEO
DP:你的公司里有这么多项目,其中一些,我们今天才谈到,而我想还有许多,是外界根本不知道的。
作为 CEO,你要统筹一切,介入的深度可以是到Llama 团队面前说:“这些就是你们该用的超参数”,也可以只是下达一个大方向,比如把 AI 做得更好就行。
项目如此繁杂,你如何判断自己的价值增量,应体现在哪些方面?又该怎样高效地管控这一切?
MZ:我的大量时间,都花在招募顶尖人才上。除此之外,还有那些跨团队协同的部分。
比如Meta AI做出来了,要嵌进WhatsApp或Instagram,就得让各团队坐在一起讨论。
接着,问题就来了:WhatsApp的Meta AI聊天窗口,是保持与普通 WhatsApp对话一致的界面,还是更像业内常见的AI聊天体验?
二者各有交互惯例,需要做取舍。
这类如何把新能力融入现有生态的细节,必须逐一厘清。
再往下,是基础设施的推进。若要搭建吉瓦级算力集群,就对数据中心建设方式、选址州的政策协调、乃至公司财务都有巨大影响。
比如当前全球经济不确定性这么高,我们是不是仍要加码基建?如果加码,还要在公司层面做哪些取舍?这些都是其他角色难以拍板的大决策。
还有品位与质量的把关,比如何时产品足够成熟、值得上线?
通常我在公司里担此“品控人”的角色,当然也有不少同事同样眼光敏锐,负责各自领域的“质量闸门”。
总体来说,大概就是这些核心维度。
AI有一些独特之处,它比过去许多业务更研究驱动、模型驱动,而非单纯产品驱动。
你无法先画好产品蓝图再硬配模型,相反,需要先确定想要的模型能力,从中观察涌现出来的特性,随后再决定能做哪些产品。
归根结底,用户只想用到最好的模型。
这也是为什么我们强调打造最个性化的AI、最佳语音交互、最优延迟与智能并存。
为此,我们研发全双工语音full-duplex voice,也要让AI拥有持久记忆,并且能接入Meta体系的其他数据。
同时,在模型设计上精确控制规模与时延,以满足这些体验需求。
八、Is big tech aligning with Trump?
DP:说到政治,人们觉得一些科技领袖正与Trump走得更近。你和其他人曾向他的就职仪式捐款,还与他同台。我记得你们还和他达成了一项导致对方获得2500万美元的诉讼和解。
我很好奇,这究竟是怎么回事?这是不是与政府打交道必须付出的成本?我们该如何理解这种现象?
MZ:在我看来,他就是美国总统。作为一家美国公司,我们的默认立场就应该是与任何执政政府建立建设性的关系。
我们此前也尝试过向历届政府提供支持,我公开表达过对上一届政府的一些不满,比如他们基本不愿与我们或更广泛的商业界接触。
坦率说,如果缺乏对话、他们又不把这些事务当成优先事项,我们就不可能在很多事情上取得进展,也无法获得所需的能源规模。
很多人想用“站队”来解读这一切,我能理解,但对我们来说,目标是打造卓越的产品,并与有关方面保持建设性关系,我就是这样看的。我想大多数人也会这么看,不过我不能替他们发言。
DP:过去在内容审核问题上,你曾谈到如何重新思考与政府的互动与让步。
现在,你如何看待AI治理?如果AI真的如我们想象的那样强大,政府必定会介入。
最有效的应对方式是什么?政府又该关注什么?
MZ:我过去的评论,多与内容审核相关。过去十年,这真是一段有趣的历程,也是一个特殊的历史时期,线上内容管理出现了很多新问题。
其中一些催生了颇具成效的新系统,比如用AI 检测他国对选举的干预。我们会继续完善这些系统,它们总体是正向的。
但也有些做法走了弯路,我认为“事实核查fact-checking”就不如 Community Notes 有效,因为它无法扩展到互联网规模not an internet-scale solution。
比如核查人员不足not enough fact-checkers,而且大众不信任特定核查机构。
你需要一个更健全的体系,而 Community Notes 正是更合适的方案。
我想说的是,历史上我或许过于听信媒体或政府的批评与意见,而这些领域并非他们真正拥有管辖权的地方。
我们试图搭建一些系统,让自己不必独自承担所有内容审核决策。过去十年的成长让我意识到,好吧,我们是一家有影响力的公司,必须对自己的决定负责。应当倾听各方反馈,但也不能过度依赖那些根本无权做主的人。
因为最终坐在驾驶席上的,是我们自己。这是一次成熟的过程,有时也伴随痛苦,但我相信公司因而更强大。
DP:关税,会否推高在美国建设数据中心的成本,进而把建设转移到欧洲或亚洲?
MZ:很难判断结果会怎样,我想现在还只是初局阶段,具体走向尚难预料。
DP:在一周里你最具杠杆效应的那一小时single highest-leverage hour in a week,是在做什么?
MZ:我也说不好,每一周都不一样。
最具杠杆的一件事,往往不会每周都相同,否则按理说你应该每周花超过一小时来做它。
行业高度动态变化,这也是这份工作的乐趣之一。
世界的面貌和今年年初、去年年中,都截然不同。
自上次我们对谈以来,大约一年了吧?很多牌面已被翻开,进展巨大。
DP:是的,你之前提到,招募人才是你杠杆最高的事情之一。
MZ:招人确实是非常高杠杆的。
九、100倍生产力
DP:你提到这些模型,到了年底都会成为中级软件工程师。如果在两年内,软件生产力提高 100 倍,会出现什么可能?有哪些现在根本无法打造的东西,届时能被创造出来?
MZ:这个问题很有意思,我们今天的对话里有一个主题:被释放的创造力将是巨大的。
回顾过去一两百年,人类社会与经济的整体轨迹,就是人们主要从事农业,把大部分精力用于填饱肚子,这部分占比越来越小。满足基本物质需求所耗费的人类能量,越来越低。
这种转变带来两个结果:第一,更多人开始投身创意和文化领域;第二,人们整体工作时间减少,娱乐和文化活动增多。
我几乎可以肯定,这一趋势会持续下去。
短期内,一个拥有超强软件工程师能力的AI,会带来什么?从长远看,如果每个人都拥有超人级工具去创造各种东西,多样性将空前丰富。
其中一部分,将用于攻克难题,治愈疾病、推进科学、研发改善生活的新技术。
但我猜,相当大一部分会进入文化、社交和娱乐领域。世界会变得更有趣、更古怪、更具特色,就像过去十年互联网梗文化的发展。
这增添了丰富的层次,从某种角度说,还能帮助人们更好地连接彼此。如今,我整天在网上看有趣内容,然后发到群聊给朋友看。
人们现在能制作的媒体,已足以表达极其细腻、具体的文化意象,这股潮流还会继续推进。它确实在多方面推动社会进步,即便不是那种“硬科学”式的治病救人。
从社交媒体的视角看,未来人们会花更多时间做这些事,而且体验会更好、更能促进连接,因为它帮助表达多元观点。
世界会更复杂,而我们的“文化技术”,比如会用一段幽默小视频或别的形式表达复杂思想,也会大幅进化,我觉得这很棒。
至于明年会怎样,有一点值得一提,至少在可预见的未来,这种变革会提升对劳动力的需求,而非减少,人们可以自主选择工作时间。
举个我们最近讨论的例子,Meta 每天有近 35 亿人使用我们的服务,我们长期苦于一个问题:如何提供客户支持?
现在的用户可以写邮件给我们,但是,我们从没考虑过提供电话支持,作为免费服务,每位用户带来的营收,不足以支撑电话客服的成本。
日活35亿,意味着海量来电,可能需要世界最大规模的呼叫中心,每年成本100–200亿美元,这完全不现实。
然而,随着AI变强,它将能解决大部分用户问题。也许十年后,就能处理所有问题。
就算只看3–5年的时间线,它也能解决相当多的问题。就像自动驾驶,能覆盖很多路况,虽然尚未完全独立。
有人曾预测,卡车司机会失业,但自从二十年前谈论自动驾驶以来,卡车司机的岗位,反而增加了。
回到客服场景,若AI能处理 90%的咨询,把剩下 10% 分派给人工,再把服务成本降到原来的十分之一,那么电话支持就变得经济可行。
最终结果可能是,我们反而可以雇更多客服人员。
很多人相信AI会让工作消失,但历史从来不是如此简单。
技术,通常能削减90%的工作量,却让岗位需求增加,而不是减少。
DP:最后一个问题:当今世界上,你最常寻求建议的那个人是谁?
MZ:唔,很难说,我的风格是广泛请教顾问,而不只依赖一个人。
我们有出色的团队、董事会成员,也有不少在业界做新东西的朋友,我没有唯一的导师。
但在动态世界里,与志同道合的人一起做很酷的事,这对我来说,就是生活的意义。When the world is dynamic, just having a reason to work with people you like on cool stuff… To me, that's what life is about.
DP:以这个美好的话题收尾吧,感谢你接受我的访谈。
MZ:Yeah,thank you
【扩展阅读】
来源:老夏看商业一点号