摘要:不到一刻钟后,舞台并没有换人,而是直接请上摩根大通(J.P. Morgan Private Bank)的两名工程负责人。
2025 年 5 月 ·San Francisco,CA|LangChain Interrupt 2025 现场
当主持人 Harrison Chase 把话筒递给吴恩达(Andrew Ng)时,他上来就给"AI Agent"一个贴地气的比喻:
不到一刻钟后,舞台并没有换人,而是直接请上摩根大通(J.P. Morgan Private Bank)的两名工程负责人。
他们展示的 Ask D.A.V.I.D. 投研系统,用的正是吴恩达口中的"积木"思路——多代理协作模式。这是为投研团队打造的一套 AI 助手链路,能自动调取数据、解析文档、生成决策建议。
官方测试数据写在 PPT 大屏上:把一份投资研究流程从约 60 分钟压到不到 12 分钟,整体链路提速≈80 %
这种差别,正是本文要讲的"AI落地分水岭"。
接下来的内容将按 “纪实 → 拆解 → 洞察” 三段式展开:
纪实|复原吴恩达的“Lego Agent”核心观点与 Ask David 的系统架构。 拆解|把两套方法按“任务粒度 / 评估闭环 / 安全栅栏”逐项对照。 洞察|给国内团队的 3 条行动线:先找10倍速度机会,再建立简单的验证闭环。接下来的内容,或许能帮你思考:你现在是在试拼积木,还是已经走到了让 AI 接手交付的那一步。
在对话中,吴恩达并没有从技术术语开始,而是从“乐高”的比喻开始:AI 工具就像乐高积木,你有的种类越多,能拼的东西就越丰富。但关键不是你有多少块,而是你会不会拼。
这句话背后,藏着一个新发现: AI 能不能真正派上用场,不看模型有多厉害,而看你会不会把复杂工作拆分成小任务,让 AI 逐个解决。
吴恩达反复强调一件事:
他说:“你以为评估(Evals)是件大工程,但很多时候,一个粗糙的检查器就能节省你大量时间。”
比如,他举了个例子:当系统反复出错、回归,你以为它修好了,其实又坏了。这时候我就快速做个小评估流程——5 个例子,一个判断器,就够了。
这种简单的检查方法,技术人员都很熟悉,但对 AI 项目来说,却是成败的分水岭。
更关键的是,他不鼓励一开始就做完美:
他还提醒:“我们在这行业常见的错误是,把时间浪费在争论这算不算代理,而不是问,它到底能不能完成一个任务。”
所以吴恩达提出一个新词:“代理性(agenticness)”,意思是:
别管它是不是一个“正式的代理”, 关键是看它有没有自主性,能不能完成多步操作。他甚至开玩笑说:“这场大会本来应该叫‘代理性大会’,不是‘代理大会’。”
在他眼中,未来的机会,不在于你造了个多花哨的模型,而在于——你有没有能力,把原本需要三个人完成的流程,拆成 AI 能操作的几步,然后跑起来。
这,才是“会拼乐高”的真正门槛。
吴恩达说,AI 落地不是拼谁懂模型,而是拼谁会拆任务。
摩根大通银行团队,已经把这事儿拆清楚了。
演讲中他们回顾了一个真实场景:每天都有成百上千条投资相关的问题飞向研究部门,人工检索、拼接报告、准备客户材料,流程繁琐又费时。
于是,他们造了个名叫 Ask David 的 AI 工具。
这不是一个问答机器人,也不是简单的聊天助手。它能做的是:
接收自然语言问题 调取结构化数据库 检索文档与录音 用内部分析方法跑判断 自动写出客户能看懂的答案 最后再让人做二次确认而这一整套流程,原来需要分析师耗上半天,现在几秒钟就能跑完。整体效率提升超过 80%。
怎么做到的?不是靠一个工具,而是一套组合拳
摩根大通团队强调:
我们从来没想一上来就造个大怪物。 第一天就只是一个 React 代理,处理一个问题。 然后才慢慢加上 RAG(检索增强)、判断器、记忆模块……
他们怎么拼这套“乐高”积木?
演讲原文梳理如下:
总控代理:负责接收用户问题,识别问题类型(比如是问某个基金,还是泛问市场观点) 数据助手:用自然语言转 SQL,去结构化数据库里拉数据 文档助手:从会议纪要、研究报告、视频音频里找信息 分析助手:把公司自己的专有模型调进来做判断 表达助手:针对不同提问人(是顾问还是尽调员)写出不同风格的回应 自查机制:每次输出前都跑一遍“反思节点”,用 LLM 判一下答复是否合理 人手兜底:如果有风险,直接交给分析师复核团队还有个巧招:给每种问题画个流程图——该怎么拆分、按什么顺序处理、用哪些工具。这不是让AI更聪明,而是让整个过程可控。
✅ 真正的变化不在技术,而在思路
以前客户问:这个基金为什么被终止了?研究员得找人、翻数据、看报告、写文档。
现在,我们能在客户开口的几秒钟内,把相关原因、历史记录、替代选项,一并推给他。
这不只是简单替代,而是把人从反复搬砖中解放出来。
他们最后说了句很重要的话:不是AI模型让我们变快,而是我们学会了—— 怎么拆分任务,怎么选对工具,怎么设置检查环节,最后让人来处理最难的部分。
这就是 AI 从能回答到能做事的第一步。
吴恩达在对话里说了一句很多人没听懂,但值得反复咀嚼的话:
我们很多流程其实很线性,甚至就几步,但企业不知道该怎么把这些步骤切出来、标好、接上 AI,然后设一个反馈点。于是他们干脆什么也没做。
这就是他口中的“代理性”: 不是一个模型是不是代理,而是这个流程里,AI 到底做没做实事。
分水岭,开始显现
过去一年,大多数企业搞 AI 应用,停在第一阶段:
摩根大通代表的是另一端:
他们不是在炫AI技术,而是让 AI 进入工作流程里。
吴恩达指出:现在的 AI 项目,有一个共同问题——你看不到中间过程,你也没法追溯到底哪里出了错。如果你搭了一个代理链,结果不好,你就得知道哪一步搞砸了。但很多团队甚至没有这些‘检查点’。
这句话点出了AI应用的一个关键问题:没有流程管控、没有错误检查、没有步骤拆分,AI就只能纸上谈兵。
分界线在于——你有没有构建这三件事:
1、能拆任务的能力能不能把一个问题,拆成三步、五步,每步有动作、有判断?
2、能设置反馈点能不能知道 AI 哪一步出错了?判断器设了吗?有没有最小评估流程?
3、能接回人的机制AI 跑不通的时候,人能不能及时兜底,而不是全盘推翻?
摩根大通团队表示:我们不是追求让 AI 完美,而是确保它每跑一步,背后都有可追溯的逻辑。跑错了,可以改;跑对了,就继续放大。
他们还补充了一句:
AI 应用的真正分水岭,从来不是谁用的大模型强,而是谁能把原本靠人完成的链条,重构成 AI 能持续运转的流程。
吴恩达讲的是思维模式的升级,摩根大通做的是这套模式的实操版本。
从"回答你"到"替你干",中间差的不是技术,而是这种拆、拼、回收的能力。
吴恩达在采访中提醒大家:所有人都在谈模型,但我更关注一些没人认真去做的事——语音、Vibe 编程,还有评估流程。它们可能才是 AI 应用提速的关键积木。
️ 第一块被低估的积木:语音,不是更炫,而是更顺
他观察到一个现象:
为什么?
他解释道:文字可以删改,大家会纠结每一个词;但语音是线性的,一旦说出来就过去了,反而更自然。就像你写邮件会改来改去,但打电话时直接把想法说出来就行。
这些不是模型问题,是入口体验的问题。
"Vibe编程"这个名字容易误导人,以为是随便写代码,但吴恩达指出:
他说,现在很多 AI 编程辅助工具,像 Cursor、Windsurf,本质上改变了开发方式:你不是靠写一堆代码,而是用 prompt 引导AI思考,逐步调整方向。
这种工作方式的本质,是:
快速拆解任务 不断用 AI 给出方案 再在人脑判断里修正方向他说了一句很真实的话:未来最重要的技能之一,就是能准确告诉 AI 你要什么,这比自己写代码还难。
第三块被低估的积木:评估,不是为了看效果,而是为了迭代速度
吴恩达说,很多团队都知道评估重要,但就是不做。
为什么?
其实评估真的不用那么复杂。弄个简单的检查方法,每次改进就知道往哪走了。
他讲了自己的做法:
这个小测试,可能看起来没什么技术含量,但他认为:这决定了你能不能在一天内试 5 次,而不是一个星期调一次。”
评估不是最后才做的事,而是过程中用来调方向的工具。
吴恩达说:“我们有一大堆乐高,但如果你没那几个冷门的关键积木,很多东西你就拼不出来。”
语音让人更容易上手,AI辅助让开发更快,评估则负责控制方向和质量。
很多 AI 项目跑不起来,不是少了 GPU,而是没人去摸这三块冷门积木。
吴恩达最后说:
这句话听起来简单,但很多人并没做到。
有人把AI当智能助手,却没想过让它完整地做完一件事。 有人有一堆工具,却不知道让它们配合起来干完整件事。 有人天天追新模型,却没认真规划过工作流程和检查环节。
摩根大通 Ask David 项目已经给出答案:知道哪一步该让AI接手,哪一步该让人来处理。
真正跨过这道分水岭的人,不是最懂技术的人,而是懂得让AI真正派上用场的人。因为技术从来只是工具,关键看人怎么用。
这场对话中,吴恩达提醒得已经够清楚了:
来源:趣闻捕手一点号