I/O 2025|谷歌“AI 模式 + 任务助手”上线:搜索不再回答,而是办事

360影视 日韩动漫 2025-05-22 05:55 2

摘要:谷歌 CEO 桑达尔·皮查伊(Sundar Pichai)站上 I/O 发布会舞台,只花了不到十分钟,对着全场开发者宣布:

美国时间 2025 年 5 月 20 日 · 旧金山硅谷

谷歌 CEO 桑达尔·皮查伊(Sundar Pichai)站上 I/O 发布会舞台,只花了不到十分钟,对着全场开发者宣布:

搜索框不重要了,接下来 Google 会直接帮你把事办了。

背后支撑这句话的,是一套全新产品组合:“AI 模式(AI Mode)+ 任务助手(Task Assistant)”:

在演示现场,只一句话,系统就为开发者完成选座、购票全流程;另一个场景中,它同时处理 10 个搜索任务——无需人点一步,全由 AI 执行。

别忘了:这一切发生在每天 140 亿次查询的“世界最大入口”上。 而一旦这个入口逻辑被改写,受影响的不只是 SEO,而是所有依赖流量的产品链路。

对开发者与产品人而言,这不仅是技术秀,更是一个竞争信号:

下一轮平台红利,属于 谁能把“问答”变成“办事” 的人。

本文将从「技术原理 → 应用结构 → 战略机会」三层结构,带你拆解这场 Google 搜索的底层重构,厘清:

过去 20 多年,搜索的核心逻辑从未改变:你输入关键词,它返回答案链接。 Google 一直是这个入口的主导者,也因此控制了人类获取信息的方式。

但在 I/O 2025 的现场,Pichai 明确表示:这一次,不是“提升搜索”,而是“重建搜索”。

他给出的评估标准很直接:

AI 概览让搜索更智能;AI 模式,是搜索开始为你做事。

什么是“AI 模式”?不是展示答案,而是解决问题

AI 模式(AI Mode),是 Google 搜索的新界面,也是这次发布中最重磅的一环。

它不是传统意义上的搜索结果页,而是一个“自动帮你完成任务”的系统。

来自 Google 搜索团队负责人 Liz Reid 的现场演示展示了这一切:

你可以问这样的问题: ‘给我推荐三块适合浅灰色沙发的客厅地毯,预算 800 美元以下,家里有小孩。’”

在传统搜索中,这种问题会被拆成关键词:

然后用户自己去点开 10 个页面,一个个比、一个个筛。

这一切不需要你去点链接,不需要你跳转页面,也不需要你再自己整理。

这就是 Liz 反复强调的一句话:

“AI 模式不是把搜索变聪明了,而是把搜索变成主动的助手。”

技术底层是什么?Query Fanout + Gemini 2.5 多步推理

这是整个 AI 搜索引擎重构的起点。

Rajan Patel(Google 搜索副总裁)现场解释了原理:

“当你提问,搜索不是只做一次抓取,而是分拆成几十个子问题,发出几十次搜索请求,并调用多个数据库、商业图谱、地图系统,综合出一个有结构的完整答案。”

这就是 Google 新推出的 Query Fanout 技术。

用户只问一次系统在后台执行几十次抓取+分析最终把“结果 +回答+行动建议”融合成一步完成的答案页面

搜索的关键变化不是数据来源的改变,而是底层思路的转变。过去搜索只是给你展示网页,让你自己去寻找答案;现在搜索直接帮你完成任务,直接解决你的问题。

为什么这是搜索的范式断层?

Sundar 在演讲中用了这样一句话:

用户在搜索中提的问题,已经是传统搜索长度的 2~3 倍。

他们不再输入关键词,而是表达任务。

换句话说,用户的行为已经变了,而搜索正被迫跟上。

过去: 你想买个东西,要学会怎么“搜”才能找到它;现在: 你直接说出目的,系统就得懂,并完成它。

这不是搜索“越来越智能”,而是搜索正在消失,被一种全新的“智能任务执行系统”取代。

总结一句话:

如果说“AI 模式”,让搜索开始“看懂你的问题”; 那 Project Mariner,就是 Google 这次发布会里最重要的“动手能力”。

这不是一个模型,也不是一个界面,而是一个全新的底层代理系统,专门负责一件事:

你说目标,它来执行。

官方演示:找房子,不用自己刷 Zillow(美国版链家) 了

在演讲中,Google 举了这样一个生活化例子:

“假设你和两个室友要在德克萨斯州的奥斯汀找一套三居室,每人预算不超过 1200 美元,最好有洗衣机,或者离洗衣店不远。”

正常操作,你要:

全程你不用跳页面,不用复制粘贴关键词,不用操心任何操作细节。它就像一个训练有素的助理,始终在替你工作。

背后逻辑:从“执行指令”到“理解任务链”

这不是简单的网页点击自动化,而是一整套“任务链理解 + 工具协同”的能力。

Rajan Patel 解释说:Mariner 可以同时处理多达 10 个任务线程。它不仅能点击操作,更重要的是,能理解你在做什么。

举个例子:

你说:

“我想买张周末去旧金山的机票,最晚周五下班后走,预算 1500。”

Project Mariner 会自动:

打开航班网站筛选时间 + 比价 + 看退改规则自动下单、填信息用你的权限完成支付或推送给你确认并同步写进你的 Google 日历

整个过程,不是“点点点”,而是理解你希望达成的结果,并主动组合动作实现它。

这就是 Google 给它的官方定义:Project Mariner 是我们正在构建的通用 AI 执行代理。

关键升级:教一遍就会,越用越聪明

这套系统还有一个细节,被现场演讲者 Tulsee Doshi 点出来:

Mariner 有一个叫 Teach & Repeat(学习&重复) 的机制。”

你只要演示一次,它就能学会,并在之后的相似任务中自动执行。”

比如你教它:

如何从 Gmail 中提取报销单如何分类并填入指定表格如何同步到公司 Drive 文件夹

下次你只需说:“帮我处理报销。” 它就会自动完成全流程,而且每一次做得比上一次更快、更准。

这意味着,AI不再只是你用的工具,而是成为了解你、记住你习惯、并能自动为你行动的个人助手。

“我们不是展示十个链接让你判断哪个可信, 而是直接用搜索的方式帮你完成决策。” ——Google 搜索主管 Liz Reid

我们过去用 Google 搜索,是为了“找到信息的地方”;现在,搜索直接把最终答案送到你面前,甚至连图表、建议、决策路径都帮你设计好。

这不是答案质量变好了,而是省去了你自己找答案的麻烦。

在 I/O 2025 现场,搜索副总裁 Rajan Patel 举了一个自己最关心的问题:

谁用了新型‘鱼雷(torpedo bat)’球棒之后,打击率提高最多?

传统搜索做不到,因为你得:

先找出谁在用这种球棒再去查这些人的比赛数据自己做表格分析

但现在,他只需要在 AI 模式里问一声:

请对比使用鱼雷球棒球员本赛季和上赛季的打击率和上垒率。

明确列出所有相关球员直接用柱状图展示每人的变化趋势边上标注提示:这是实时数据,赛季尚早,样本量可能影响判断

如果他继续追问:“这些人本赛季打了多少全垒打?” 系统直接追加一张新图表,展示统计。

用在生活中,是怎么表现的?

这一切,全都由系统在后台完成——用户只说了一句话,就像“有人提前踩好了所有点”。

这就是 Gemini 结合 Query Fanout 和多模态能力后的完整闭环:

从提问 → 到拆解 → 到抓取 → 到编排 → 到可执行结果页,搜索已经变成一整套“任务流生成器”。

决策能力:搜索开始生成“对你来说最优”的行动建议

不仅是展示信息,更重要的,是帮你做决策。

Liz 强调:搜索会对结果进行评估和解释,如果发现信息不够, 它还会自动再去搜一次,填补空缺。

这相当于一个具备“自己检查答案”的 AI 帮你查资料。

举个生活场景:

你搜索:

请推荐适合 5 岁小朋友看的科幻动画,评分高、情节积极,有中文版。

搜索结果不再是十个视频平台链接,而是一份清单,里面列着:

一句话总结:

如果说前几节讲的是搜索在屏幕内升级,那么这里要讲的,是它走出屏幕,成为现实世界的一部分。

2025 年的 Google 搜索,不再只是一个“搜索框”,它正在变成你身边的一个“观察者 + 执行者”。

演示:不是你告诉 AI,而是 AI 告诉你

在演讲现场,Google 展示了 Project Astra 的一个幽默片段:

用户用手机摄像头指着一辆车,问:

“这辆敞篷车不错吧?”

Gemini 回复:

“那其实是垃圾车。”

然后,用户又问:

“为什么这个高楼出现在我们小区?”

Gemini 冷静回答:

“那是路灯,不是高楼。”

这看似玩笑,背后其实揭示了一个关键变化:

AI 不再等待你的明确提问,而是能从你看到的东西中主动理解场景、提供回应。

换句话说,摄像头成了新“搜索框”,你指哪里,它看哪里;你问什么,它看着世界来答。

Gemini Live:用说的、指的、拍的,就能完成任务

这一功能不是未来概念,而是今天起已在 Gemini 应用中上线。

Google 举了几个典型应用场景:

1、修东西:你指着一台坏掉的咖啡机说:“它出什么问题了?” Gemini 看图识物,推测零件问题,并推荐 YouTube 教程链接。

2、管文件:你打开电脑屏幕,共享一份复杂的 PDF 或财报图表, Gemini 会阅读图文内容,帮你总结、提出优化建议,甚至生成回复邮件。

3、教学习:你给它拍一道数学题,它不仅能算,还会讲出完整解题步骤,并可口语解释逻辑。

这已经不是传统搜索的“信息匹配”,而是一个会看、会说、会指挥的认知型代理入口。

XR 眼镜 + 摄像头:搜索走向“随时在场”的状态

Google 还现场展示了搭载 Gemini 的新 XR 智能眼镜 Demo。

产品负责人 Nishtha 戴着眼镜走进会场后台,她说:

Gemini 回复:那是 Counting Crows,是湾区的传奇摇滚乐队。

她继续说:播放他们的一首歌吧。

Gemini 立刻播放现场演出录音,并显示相关信息卡片。

整个过程中:

这不是未来幻想,而是 Google 已投入测试的下一代搜索接口。

Demis Hassabis 总结得很精准:

“我们不再构建功能,而是接受任务、完成目标。” ——Josh Woodward,Gemini 应用负责人

今天在谷歌,搜索引擎不再是网页入口,而是变成了一个任务调度系统。 AI 不再是内容工具,而是进入了“实质执行”的角色。

但在国内,大多数团队还停留在“对话体验”阶段, 真正把搜索当作执行系统、把产品变成目标调度器的,还寥寥无几。

为什么“AI 执行入口”这么关键?

一句话总结:

谁负责“理解用户目标 → 调用资源执行 → 给出结果”,

谁就能接管下一个时代的产品控制权。

你过去做搜索,是为了找答案;你现在用 Gemini,是为了完成任务:

“订明天去上海的机票” → 自动查航班、比价、下单“找一篇文章总结 AI 的四种类型” → 抓文、总结、生成分享图“帮我把这个报表变成图形报告” → 自动识别数据、排版、导出 PDF

这些场景,不再属于搜索公司、内容平台、工具软件任何一家独占, 而是被“谁最先构建 AI 任务入口”的公司所收编。

Josh 在 I/O 上说得清晰:用户说一句目标,我们替他决定用哪个模型、走哪套工具、什么形式输出。产品逻辑在变,平台定义者也在变。

国内现状:模型强、产品快,但“执行入口”尚未起步

过去两年,国内大模型快速演进,涌现出多个具备国际竞争力的技术底座。 但在产品落地层面,大多数团队还集中在三类典型形态:

聊天式“万能问答框”网页内容总结 + 工具型小插件写作/报告/制图的“智能应用箱”

它们“帮你快点干活”,但还做不到“你只说一句,系统替你办成”。

不是能力不够,而是两大关键机制尚未建立:

任务链重构:要从“点击功能”转向“调度目标”,重写交互与流程设计;调用协议联通:要形成“模型 × 应用 × 权限”的统一调度机制,平台底座尚未打通。

Google 实际已给出一套明确路径:从“等用户提问”,切换为“系统接收意图 → 自动调度执行”。

这正是国内产品亟待突破的结构性起点。

谁率先打造“任务执行入口”,谁就能收平台税

回到商业本质:

搜索,是流量的第一入口;大模型,是系统的底层平台;而AI 任务执行器,才是未来用户决策路径的起点。

Google 正在用一整套产品,重新串联这个链路:

Gemini 应用理解你的目标;AI Mode 自动拆解任务;Project Mariner 控制执行链条;Chrome Gemini 则渗透到网页层做场景级融合。

这个组合的含义是:

用户不再“打开 App 找服务”,而是“说出一句话”→ 平台调度资源 → 任务自动完成。

谁能理解用户的自然语言、掌控工具调用权限、打通执行流程——谁就不是“生态的一环”,而是“平台的定义者”。

Google 在干这件事,OpenAI 也在争抢这一角色。

而在国内,还鲜有公司真正以“任务执行”为中心,重构整个平台路径。 这背后的挑战,不是模型能力的问题,而是:我们的产品思维是否已经切换到了“执行为核心”的范式。

AI 正在悄悄改写一个共识:

搜索,不再是“给你一堆链接”,而是“帮你把这事办了”。

Google 把它称为 “AI 模式(AI Mode)+ 任务助手(Task Assistant)”,正在构建一个新平台原型:

它听懂你的目标 → 调用系统能力 → 自动完成任务,整个用户决策链,正在被重新接管。

对国内的开发者、产品人、组织决策者来说, 真正的问题不是“模型差距”, 而是:

平台逻辑已经改写,你的产品逻辑还没动吗?

来源:趣闻捕手一点号

相关推荐