大模型巨浪的下一个方向:AI Ascent 2025的十个启示

360影视 欧美动漫 2025-05-24 00:01 2

摘要:5月2日, 红杉资本在旧金山举办了第三届AI Ascent活动,汇聚了100多位人工智能领域的顶尖创始人和研究人员,其中包括红杉资本多位合伙人、OpenAI 的 Sam Altman 和 Dan Roberts、Nvidia 的 Jensen Huang 和

刘莫闲 腾讯研究院高级研究员

5月2日, 红杉资本在旧金山举办了第三届AI Ascent活动,汇聚了100多位人工智能领域的顶尖创始人和研究人员,其中包括红杉资本多位合伙人、OpenAI 的 Sam Altman 和 Dan Roberts、Nvidia 的 Jensen Huang 和 Jim Fan、谷歌的 Jeff Dean、Anthropic 的 Mike Krieger、Sierra 的 Bret Taylor 等等。交流内容涵盖AI 智能体的新商业模式、数据中心建设、垂直应用的力量以及 AI 应用与转型。本文对红杉合伙人、OpenAI、谷歌和 Anthropic 的发言进行重点分析,总结出十个启示,为未来几年人工智能产业发展提供参考。

【 要点与启示 】

1. AI 将创造万亿美元级别市场机会,且发展所需要素均已就位,AI 爆发成为“迫在眉睫”而不仅是“不可避免”的趋势。2.编码等 AI 能力的飞跃,预示着相对应的“劳动力”将变得廉价和充足,进入“丰饶时代”,而“品味”可能成为新的稀缺资产,这要求商业模式需要适应这种价值重心的转移。3.基础大模型数量将屈指可数,基模企业将在强化学习上投入更多资源,从而推动大模型能力进一步发展,使之能对人类知识和科学做出重大贡献。4.未来模型可能会更加稀疏化和专业化,各部分专注于不同的专长领域,同时也将更动态,允许不同任务路径消耗差异化的计算资源。5.智能体将具备更完善的工作能力,包括更好的记忆、工具使用能力、自我引导能力,以实现更长时间自主工作和更强的执行能力。编程将是第一个广泛应用的场景,“初级工程师”将在一年内出现。6.用户使用包含个人背景信息的“信令”登录和使用多个 AI 产品和服务,或将是新的商业模式。7.AI 时代的创新,正发生在模型研究和产品研发之间日益模糊的边界。打破以往自上而下的规划开发模式,拥抱自下而上的探索开发模式,让模型研究和产品研发紧密结合,从模型能力中发现和塑造产品,是塑造优秀 AI 产品的更有效路径。8.软件产品和服务开发业务的相关组织,其组织结构和运作模式将受到AI 代码生成的严峻考验。9.AI 时代的组织,应保持对一切快速变化的敏捷适应能力和心理韧性,并营造使用 AI、共享 AI经验、以及主动 AI 转型的开放组织文化。10.企业需要采纳“随机性思维”应对AI的不确定性,从“严格规则驱动”转向“概率与动态适应”,学习“管理Agent”这一新的管理范式,管理更复杂的决策和风险。红杉预测AI应用竞争将更激烈,智能体经济将形成
红杉的分享主要侧重于从宏观视角分析市场格局、创新挑战以及未来经济形态的演进。万亿美元规模的AI市场爆发已迫在眉睫。AI 发展所需的“计算、网络、数据、分发渠道、人才”等一切要素均已就位,AI 爆发成为“迫在眉睫”而不仅是“不可避免”的趋势。AI市场将是一个超过云计算(千亿级)的万亿级市场,价值主要聚集在应用层,竞争也将最为激烈。AI 将同时冲击服务和软件两大市场,销售模式也将从销售“工具”向销售“结果”转变。第一批杀手级应用已出现,如ChatGPT、Harvey、Glean。用户行为正随大模型能力和应用的进化而持续改变,AI产品已开始从副驾驶(copilot)走向自动驾驶(autopilot)。创业公司应聚焦解决需要人参与的复杂问题。面对基础模型的竞争,初创公司如果没有构建垂直整合业务,就应采取“从客户出发”的策略,聚焦垂直领域和特定功能,解决需要人参与的复杂问题。初创公司构建护城河的关键在于构建数据飞轮,而且数据飞轮必须与具体的业务指标相关联,否则毫无意义。构建护城河还需要面向客户,提供端到端的解决方案,成为行业专家赢得客户信任。此外,红杉强调评估AI公司时,要关注“真实收入”(real revenue),它必须反映在用户采纳、参与和留存等指标上,而非“虚胖”的“氛围收入”(vibe revenue)。企业需要采纳“随机性思维”应对AI的不确定性。“随机性思维”(stochastic mindset)要求接受不确定性,而非强制追求完全可控的输出。这种思维是对传统“确定性”编程逻辑的背离,意味着要从“严格规则驱动”转向“概率与动态适应”,学习在不确定性中管理风险。此外,人们需要学习“管理Agent”这一新的管理范式,这带来了前所未有的高杠杆,但也需要管理更复杂的决策和风险。AI最终将“重塑公司”乃至整个经济。智能体经济(Agent Economy)将逐步形成。当前已出现智能体群(agent swarms)或机器网络,未来智能体将不再仅限于信息沟通,更能转移资源、进行交易,具备对信任和可靠性的理解,形成一个崭新的经济体系。而实现新经济体系仍需面对“持久身份”、“无缝通信协议”和“安全与信任”三大挑战。垂直领域的智能体被视为巨大的创业机会,早期证据表明经过特定任务训练的Agent在安全、DevOps、网络等领域已能超越人类专家,这将催生“Agent-first”的公司浪潮。编码等 AI 能力的飞跃,预示着某些形式的“劳动力”将变得廉价和充足,进入“丰饶时代”,而“品味”可能成为新的稀缺资产,人类创造力与审美判断的价值会更凸显,这要求商业模式适应这种价值重心的转移。

OpenAI 强调保持组织敏捷性,希望成为人们的“核心 AI 订阅”

作为AI大模型领域的创新引领者,OpenAI CEO Sam Altman和强化学习负责人Dan Roberts的分享,提供了 AI 时代创新和价值创造的风向标。模型有10-100倍潜力空间,继续重点押注强化学习。Sam 认为模型潜力仍有10~100倍的空间,这既依赖于巨量算力基础设施的持续投资,也亟需基础性的算法突破。Dan 强调测试时计算(Test Time Compute)是“规模法则”全新的重要缩放维度,模型能通过“思考”显著提升性能。他透露 OpenAI 将加大强化学习投入,用更多的强化学习来推动大模型能力的发展,使之能对人类知识和科学做出重大贡献。编程不只是应用,更是关键交互方式。Sam 提到大模型的编程能力是OpenAI 的核心基础,它不仅是一个垂直应用,更是驱动模型与现实世界互动的关键方式。OpenAI 将通过平台 API 提供编码功能,并且致力于提升 ChatGPT 的代码编写能力,AI通过写代码调用API实现任务执行,推动其从 “助手” 模式向 “智能体” 模式转变。因此,"ChatGPT 必须成为世界上最好的编程助手"。愿景是打造AI应用生态系统,成为“核心AI订阅”。通过构建越来越智能的模型,提供类似操作系统界面的交互方式,以及开发合适的 API 或 SDK,OpenAI 希望打造一个全面的人工智能生态系统和平台,为开发者和用户提供更强大的工具和服务,使用户能够在多种服务中便捷地使用个性化人工智能。 拥有 5 亿周活跃用户的 ChatGPT 表明,用户对与 AI 进行自然与要交互存在强烈需求,使之成为“杀手级应用”。 语音交互+GUI 会是极其重要的用户交互方式。对于用户个性化需求,Sam 期望它会是一个非常微小的推理模型,拥有能够把用户一生所有数据放进去的、连接所有数据和资源的巨大上下文窗口,而不是目前的微调方案。企业和团队应维持敏捷性与高效率的核心地位。OpenAI 不依赖既定的长期规划,或者说是最终目标倒退,而是专注于做好眼前的工作,根据市场变化和技术发展灵活调整策略。通过保持相对较小但高责任制的团队规模,OpenAI实现了极高的产品速度,这被视为应对大公司因效率低下、固守陈规而难以适应快速变革的有效策略,确保研究人员、工程师和产品人员能够充分发挥作用,初创公司因此更具优势。Sam 还建议创业者多去学习历史优秀研究实验室经验和做法,并在面对持续不确定性时,培养长期心理韧性。AI 价值创造将基于三个关键要素逐步释放。建设更多基础设施、更聪明的模型和社会融合,是AI 价值创造的三个关键要素。Sam 还给出了未来三年的时间表:2025年智能体将专注于执行工作,特别是编码;2026年期待AI在科学发现领域做出重大贡献;2027年AI将从知识领域转向物理世界,机器人成为重要的经济价值创造者。Dan 则基于Agent任务时长指数增长的趋势,预测大约 9 年内模型将具备做出类似爱因斯坦发现广义相对论的重大科学突破的能力。

谷歌践行软硬件协同创新,预测“初级工程师”一年内实现

谷歌首席科学家 Jeff Dean 的分享,侧重于技术基础设施、模型架构创新以及AI智能体应用等方面谷歌的实践与洞察。基于定制化硬件的软硬件协同提效,成为大模型发展的核心支柱。规模法则在过去十几年相对有效,但未来更依赖算法、硬件和系统的协同创新。专注于机器学习计算的专用硬件(如TPU)将极端重要,TPUv2已实现训练/推理一体化设计,未来硬件将更注重能效比,尤其是低功耗场景(如手机端模型)。Jeff 预测未来的推理硬件效率可能达到比现有高数万倍的水平,模拟计算或是关键路径。异构计算生态将进一步发展,硬件将分化为训练专用(高吞吐)与推理专用(低延迟)芯片,同时边缘设备(如自动驾驶)需定制化架构以平衡性能与功耗。未来的模型可能会更加稀疏化和专业化,各部分专注于不同的专长领域。Jeff认为混合专家模型(MoE)具备优势,是提升计算效率和构建更具持续学习能力系统的方向。谷歌早期实验显示,2048个专家的模型实现了10-100倍质量/计算量的提升。未来模型将更动态,允许不同任务路径消耗差异化的计算资源。由于构建最前沿基础模型需要巨大投资,基础大模型的数量将屈指可数。模型训练范式将沿训练和推理两条路径双重演进。Jeff表示尽管预训练扩展放缓,低垂果实已摘尽,但合成数据与模型蒸馏成为新杠杆。例如,Google通过蒸馏技术将大模型能力迁移至轻量模型,实现10-100倍效率提升。推理上Jeff认可OpenAI提出的"思考时间换性能"理念,认为对关键任务投入万倍计算资源可解锁新能力,但需系统级优化以避免资源浪费,如采取Test-Time Compute(测试时计算),动态分配计算资源,实现对复杂问题可投入高计算资源,而简单任务则能保持低消耗。“初级工程师”水平的 AI 可能在一年内实现。Jeff 对智能体(Agents)高度看好,认为通过强化学习和经验积累,智能体有清晰路径在虚拟和物理环境执行复杂任务。拥有编码、测试调试、工具使用、文档学习和虚拟练习等能力、达到“初级工程师”水平的AI可能在一年内实现。Jeff 还预测物理机器人将在2-3年内实现20项实用功能,随后通过成本优化(如10倍降本)扩展至千级任务能力。Agent能力的提升,要重点解决长期记忆与自我学习一致性问题,当前模型在持续任务中仍存在行为偏差,需通过新型训练框架等改善。多模态模型驱动科学范式变革。Jeff特别强调AI在科研中的颠覆性潜力。一是替代计算模拟器,通过用神经网络替代传统模拟器,如天气预测或量子化学计算,可以实现30万倍加速,使"午餐时间筛选千万分子"成为可能,大幅缩短新材料、新药物的研发周期。二是跨模态知识迁移,多模态模型可融合文本、图像、代码等多维度信息,改变传统科研范式,如通过视频数据直接推导物理定律。规模化应用是商业成功的关键,AI+和AI原生都有机会。未来商业化的重点将是那些能够成为“数十亿人每日使用的产品”,特别是通用信息检索以及帮助人们在工作环境中完成任务的领域。AI 代码生成非常有用,尤其在教育领域应用拥有很大的潜力。将AI模型能力深度整合到下游应用中(如浏览器、桌面环境),使其能观察用户行为并提供帮助,将是非常有用的产品形态。未来可能会出现管理大量虚拟智能体的新型产品和服务。

Anthropic 鼓励自下而上探索开发 AI 原生产品,强调要回归用户真实需求

Anthropic 是引领基础大模型演进方向的重要力量,尤其近来有超越OpenAI之势。其首席产品官 Mike Krieger 的观点主要围绕 AI 产品趋势、挑战和哲学思考展开。“自下而上"创新是AI时代产品开发的方法论。Mike提出Anthropic与Instagram时代最大的差异,在于开发流程的”自下而上“特性。优秀产品诞生于工程师与模型的深度互动,而非自上而下的规划。模型研究和产品研发紧密结合,才能产生更优秀的 AI 产品,而且往往到了开发过程的后期,你才真正理解模型的实际能力。比如 Claude Artifacts 和 MCP 都是从研究原型脱胎为产品的,源自具体场景的实践需求而非顶层设计。遵循“用户为本”的产品哲学,解决真实问题优先于技术炫技。Mike反复强调产品必须回归用户真实需求,技术要服务于具体场景,例如开发者工具的核心是提升效率,而非展示模型能力。做 AI 产品常犯的错误,一是没有把 AI 放在主要定位上,只是作为附加能力(如简单的侧边栏等),二是没有把产品的功能和特性完全开放给 AI。Mike 批评了当前AI原生产品普遍存在的”GUI思维“,许多产品未将底层功能暴露给模型,导致模型无法深度调用应用的核心能力。他把这比喻为”将模型钉在GUI之上“,讽刺这类产品仅将AI作为表层功能叠加在传统图形界面之上,而非重构交互逻辑。自主Agent是下一代AI产品的突破点,使用个人 AI 信令“登录”多个 AI 服务的模式将出现。未来智能体关键在实现长期自主运行能力,需要具备更好的记忆、工具调用、自我引导和组织协作等能力,以支持长时间自主工作。编程将是第一个广泛应用的场景。新商业模式方面,用户当前愿为多个AI产品付费,但未来可能出现用户携带个人数据和参数配置、“登录”和使用多个AI 产品或服务的新模式。此外,鉴别是否使 AI 生成内容的意义将逐渐消失,因为将来大多数内容将由 AI 生成,而基于区块链的溯源和引用等问题更加重要,真正需要解决的是内容来源的可追溯性。MCP 后续会在执行能力方面进一步提升,而协议标准化还为时尚早。MCP的开放性使得其被广泛采用。人们在使用 MCP 时更需要基于自动化工作流程调用各种工具实际执行任务,而不是简单的检索信息,所以后续 MCP 的这方面能力会进一步增强。而 MCP 协议标准化,需要等到智能体更加普遍并相互协作、并搞清楚什么才是正确的 MCP 协议的时候在进行,现在谈标准化还为之过早。MCP 将面临信息披露判断、行为可审计性以及身份管理等挑战,这些是技术、产品和研究层面的问题,而非仅是协议问题。AI局部应用提效引发的瓶颈,需要组织整体运行和管理变革应对。以 AI 编程为例,AI 代码生成能力逐渐增强,目前 Anthropic 的代码超过 70% 已经由 AI 生成。编码效率的提升,使得接下来的代码审查和产品复查等环节成了效率瓶颈,一个 1 小时的产品对齐会议甚至会阻碍7-8 个小时的开发工作量。大模型也暂时帮不上忙,它还做不到能够组织化的推进决策的程度。这迫使组织优化协作流程,并思考如何监督和管理,以确保这不会导致组织陷入架构上的死胡同。而 Vibe Coding 可以让个人开发出一些很有趣的东西,但它并不适合一个100 人的团队一起完成整个代码库。在团队进行 AI 转型的过程中,面对内部各团队 AI 采用不均衡的问题,应该鼓励共享 AI 使用经验,这有助于打破不会使用 AI 的耻辱感和对使用 AI 的偏见。

来源:腾讯研究院

相关推荐