TPU性能提升10倍,开源A2A颠覆智能体交互|GoogleCloudNext25

360影视 国产动漫 2025-04-10 19:29 1

摘要:Google Cloud Next 25 重要发布概览:发布第七代 TPU Ironwood,提供更强的计算能力;存储、网络和计算方面的创新,有助于优化 AI 部署;Google 分布式云的优化,企业可以将 Gemini 模型部署到本地;Vertex AI 的

Google Cloud Next 25 重要发布概览:发布第七代 TPU Ironwood,提供更强的计算能力;存储、网络和计算方面的创新,有助于优化 AI 部署;Google 分布式云的优化,企业可以将 Gemini 模型部署到本地;Vertex AI 的创新,例如 Agent Development Kit 和 Agent2Agent 协议,可实现多智能体生态协同;Agentspace 的增强功能,使每个员工都能从 AI 中受益等。

美国时间 4 月 9 日,Google Cloud Next 25 在拉斯维加斯开幕。不出所料,今年的主角仍是 AI。但与以往不同的是,其发布亮点更多从技术突破转向了价值交付,从单点创新转向了规模化应用。

Google Cloud CEO Thomas Kurian 在开幕演讲中表示,过去一年中,Google Cloud 和 Workspace 上已经推出了 3000 多项改进和更新,超过 400 万开发者使用 Gemini,这使得 Vertex AI 用户规模增长了 20 倍。他指出,这得益于 Gemini、Imagen(图像生成模型)和 Veo(视频生成模型)的快速普及,在企业需求推动下,Google Workspace 内部每月为企业用户处理的 AI 请求量已经超过 20 亿次,可以说从根本上重塑了工作方式。

AI 超级计算架构不断完善和升级

这一系列生产力的革新首先源于谷歌在基础设施层面的全面“AI 化”。

今年大会开幕演讲的主题是“The New Way to Cloud”, 在笔者看来,其中所谓的“New Way”即是面向 AI 的,能够满足 AI 开发和应用需求的新方式。

Google 与 Alphabet CEO Sundar Pichai 强调,AI 的未来机会和潜力巨大,这也是 Alphabet 近几年来持续大手笔投资 AI 基础设施的重要原因。据他透露,2025 年谷歌将投入约 750 亿美元用于服务器和数据中心建设。

与此同时,为了进一步帮助客户拥抱 AI, Google Cloud 还宣布将以“谷歌速度”(接近零延迟)为全球数十亿用户提供云广域网(Cloud WAN),与其他托管和开源 Kubernetes 产品相比,这意味着,Cloud WAN 能帮助 Google Cloud 客户将网络性能提升 40%,同时将总拥有成本(TOC)降低 40%。

芯片作为每年的关注焦点,今年谷歌推出了迄今为止规模最大、性能最强的第七代 TPU——TPU Ironwood。

据 Google Cloud 机器学习、系统和云人工智能副总裁 Amin Vahdat 介绍,TPU Ironwood 性能较前代高性能 TPU(v5p)提升了 10 倍以上,每个 Ironwood 单元搭载超过 9,000 颗芯片,每个单元可提供 42.5 exaflops 计算能力,是当今世界上最快的超级计算机 El Capitan 每个舱体性能的 24 倍,可以很好地满足 Gemini 2.5 等 AI 模型日益增长的计算需求。

自去年与英伟达强强联手以来,谷歌提供了非常广泛的基于英伟达 GPU 的产品,这意味着用户可以使用英伟达的最新硬件在 Google Cloud 上训练生成式 AI 模型。今年,谷歌进一步推出了搭载英伟达 B200 和 GB200 Blackwell GPU 的 A4 和 A4X 虚拟机,显著增强了 GPU 产品组合。据透露,Google Cloud 还将成为首批提供英伟达下一代 Vera Rubin GPU 的公司之一,该 GPU 每个机架可提供高达 15 exaflops 的 FP4 推理性能。

除了芯片之外,在谷歌看来,存储是最大程度减少训练和推理瓶颈的关键组件,而为了实现更高的吞吐量和更低的延迟,谷歌此次在存储层面也进行了一系列更新,包括:

Hyperdisk Exapools:提供超大规模器的最高聚合性能和容量块存储,每个 AI 集群的容量高达 EB,性能高达每秒 TB 级;

随处缓存:能够智能地将数据保存在靠近加速器的位置,将存储延迟减少高达 70% ,并显著加快训练时间;

快速存储:这是谷歌的第一个区域对象存储解决方案,与最快的同类云解决方案相比,随机读写延迟降低了 5 倍。

软件层面,谷歌推出了三项针对 AI 推理的重大增强功能,包括:

Google Kubernetes Engine (GKE) 推理:GKE 中的新推理功能,包括新一代 AI 感知扩展和负载平衡功能,可根据内部基准测试将服务成本降低 30% 、将尾部延迟减少 60% 并将吞吐量提高 40%;

Pathways 上线:由 Google DeepMind 开发,支持先进的多主机推理,可实现动态扩展,并以最优成本提供卓越的性能;

vLLM 可用性:将 vLLM 引入 TPU,使得已使用 vLLM 针对 GPU 优化 PyTorch 的客户能够轻松且经济高效地在 TPU 上运行其工作负载,从而最大限度地利用其投资并提升灵活性。

AI 模型持续深入企业级场景

正是基于以上在 AI 超级计算机硬件和软件等层面的持续性能提升,使得谷歌可以提供更加智能、更低成本、更低门槛的 AI 工具,而这,恰恰是企业级规模化 AI 应用的重要前提。

其中,Gemini 作为谷歌功能最强大的 AI 模型系列,两周前谷歌就提前释出了 Gemini 2.5 Pro 公开预览版。据 Pichai 介绍,Gemini 2.5 Pro 现已在 AI Studio、Vertex AI 和 Gemini 应用程序中向所有人开放。

而在本次大会上,谷歌方面再次宣布,Gemini 2.5 Flash 即将登陆 Vertex AI。Gemini 2.5 Flash 是谷歌专为低延迟和成本效益而优化的主力模型,适用于实时摘要和文档探索,其特点是能够根据提示的复杂程度调整推理水平。此外,响应时间也可以根据问题的复杂程度进行调整,这意味着它需要更长的时间来响应需要事实核查的查询。

除了 Gemini,谷歌还是为数不多提供涵盖所有模式(包括图像、语音、音乐和视频)模型的公司,所有这些模型在本次大会上也有突破性的进展:

Imagen 3(文本转图像模型):改进了图像生成和修复功能,可以重建图像中缺失或损坏的部分。此次更新显著提升了对象移除的质量,带来更自然、更流畅的编辑体验,在 LMArena 上排名第一;

Chirp 3(音频生成模型):只需输入 10 秒音频就可以创建自定义语音,使企业能够个性化配置呼叫中心、创作内容并建立独特的品牌声音。此外,新的转录功能还可以在多人对话中分离并识别单个说话人,显著提高会议摘要、音频分析和多方通话录音等应用的转录清晰度和可用性;

Lyria(业界首款企业级文本转音乐模型):可以将简单的文本提示转换为 30 秒的音乐片段,能够生成高保真音频,捕捉细微的差别,并呈现丰富细腻且涵盖多种类型的音乐,用于企业营销活动、产品发布、沉浸式店内体验和其他数字内容创作;

Veo 2(视频生成模型):推出智能擦除功能,可以去除不需要的背景图像、logo 或干扰元素,无需手动修饰即可进行专业编辑;智能扩展功能,能延展现有视频画面素材,帮助用户针对不同屏幕尺寸和平台优化视频规格;电影级运镜技术,提供专业级的镜头构图、拍摄角度与节奏把控方案;智能补帧,用户只需设定视频片段的起始与结束帧,即可自动生成流畅的过渡画面。

在演示中,Vertex AI 产品总监 Nenshad Bardoliwalla 展示了如何协同以上工具制作音乐会宣传视频,并配有自定义音乐和复杂的编辑功能,例如从视频片段中删除不需要的元素。看下来整体操作非常丝滑,Bardoliwalla 表示:“只有 Vertex AI 能够将所有这些模型以及第三方模型整合到一个平台上。”

值得一提的是,今年大会开场前的现场 DJ 表演中的音乐视觉效果也是由谷歌 DeepMind 的视频模型 Veo 2 生成。走 T 台的花豹、水中徜徉的千纸鹤、吃冰淇淋的鹦鹉、水杯中跳水的运动员...... 这些马行空的画面和恰到好处的 BGM 卡点还是非常令人印象深刻的。

Vertex AI 模型矩阵扩展至 200+

平台层面,我们看到 Vertex AI 自 2021 年发布至今,已经从一个模型托管与训练平台,转变成一个模型训练和部署的综合平台。仅在去年,Vertex AI 上 Gemini 的使用量就增长了 40 倍以上,目前每月 API 调用量达数十亿次。

通过自动化和加速常规关键任务流程,Vertex AI 帮助诸多企业显著提升了业务效率。例如,电商巨头 Wayfair 通过自动化产品目录优化流程,属性更新速度提升 5 倍,运营效率大幅提升;全球能源企业 AES 运用生成式 AI 代理自动执行安全审计,使得审计成本骤降 99%,耗时从 14 天压缩至 1 小时;德国商业银行(Commerzbank) 为投资咨询电话生成 AI 摘要,使得行政处理时间锐减 66%。

据 Kurian 介绍,Vertex AI 模型矩阵中目前拥有 200 多个模型,包括 Google 模型、来自 Anthropic、AI21 和 Mistral 等公司的第三方模型,以及 Gemma 和 Llama 等开放模型。最近,谷歌还添加了来自 CAMB.AI、Qodo 的模型,以及来自艾伦研究所 (The Allen Institute) 的完整开源模型组合。

在本次大会上,Vertex AI 也迎来了一系列新的进展:

Vertex AI 监控面板:可以实时追踪使用量、吞吐量、延迟等关键指标,并提供错误诊断功能,让企业可以全面掌握 AI 运行状态;

模型训练与调优:支持基于 Gemini、Imagen、Veo 等谷歌原生模型,以及嵌入、翻译模型和 Gemma、Llama、Mistral 等开源模型,以安全可靠的方式使用自有数据进行定制化训练与调优;

Vertex AI 模型优化器:依托谷歌对 Gemini 的深度理解,根据企业对质量、速度和成本的偏好,自动将查询路由至最佳性能模型和工具组合;

实时 API(Live API):通过流式传输音视频数据至 Gemini,实现真正的对话式交互,可以实时处理并响应富媒体内容,为沉浸式多模态应用开启全新可能。

颠覆多智能体生态交互模式

对于近两年来始终处于 AI 应用顶流圈的 Agent,几乎也是本次大会现场的重头戏。鉴于现场信息量很大,这里着重挑选几个关注度较高的发布做下介绍。

其中最受关注的首当其冲是业界首个标准智能体交互协议——Agent2Agent 协议。该协议旨在帮助企业支持多智能体生态系统,使智能体能够相互打通而不受底层技术的限制,也就是说,无论它们是由哪个供应商提供的,或者是基于哪个框架构建的都不受影响。

这一特性使得构建由多个专职智能体组成的企业级智能系统成为可能。例如,在企业级流程中,某个智能体可以负责候选人筛选,另一个安排面试时间,还有一个负责背景调查,而这一切都可以在统一的 agentic 接口中完成。

Kurian 表示:“Agent2Agent 协议目前可以支持包括埃森哲、Box、德勤、Salesforce、SAP、ServiceNow 和 TCS 等在内的 50 多家合作伙伴的企业应用平台,他们有着共同的愿景,即让智能体能够在整个智能体生态系统中更顺滑地运行。”

谷歌强调的这种互操作性,意味着谷歌把自己定位为异构 AI 生态系统中的连接点,这或许也预示着其正在摆脱云计算早期阶段那种封闭式的模式。

与此同时,面向非技术人员,谷歌还升级了 Google Agentspace,包括 Agent Gallery 和 Agent Designer 等,用以帮助每一位企业员工用好 AI。在演示中,谷歌展示了一位银行客户经理如何使用这些工具分析客户投资组合、预测现金流问题,并自动起草与客户的沟通——所有这些都无需编写任何代码。

Kurian 透露,Agentspace 现已集成到 Chrome 浏览器中,这意味着用户可以直接在浏览器中搜索公司数据,从而简化工作流程并提高工作效率。

与此同时,谷歌还升级了 Google Agentspace,用以帮助每一位员工用好 AI。Kurian 透露,Agentspace 现已集成到 Chrome 浏览器中,这意味着用户可以直接在浏览器中搜索公司数据,从而简化工作流程并提高工作效率。

应用场景层面,谷歌现场演示了一系列 Agent,主要包括 Customer Agents、Creative Agents、Data Agents、Coding Agents 和 Security Agents 五大类。

其中 Customer Agents 能够综合和推理企业面向客户的业务场景中各种不同类型的多模态信息,包括文本、音频、图像和视频等等,并且以类似人类的语音和对话方式自然地进行沟通和互动,能够代表用户连接企业应用程序。不得不说,现场演示的 demo 还是比较惊艳的。

Data Agents 在企业工作流中也是非常重要的一部分,借助谷歌数据平台 BigQuery 企业可以充分整合结构化和非结构化数据,并使用直接集成到 BigQuery 中的 Apache Iceberg 等开放格式,此外还可以使用 BigQuery 访问任何存储系统、任何 SaaS 应用或任何云平台中的数据。

Coding Agents 应该是业界目前大家最为熟悉的应用场景,据介绍,如今谷歌已有超过 25% 的新代码都是由 AI 生成,然后再交由工程师审核。Gemini 的快速性能、超长的上下文窗口和先进的推理能力使其非常适合用于编码辅助。目前,谷歌已经在 Google Cloud、Android Studio、Firebase Studio 以及 IDE 中提供 Gemini Code Assist,随着最新的 Code Assist Agent 发布,将进一步帮助用户实现从代码到整个软件开发生命周期的各项工作的提效。

“未来将由我们所有人共同建设”

“我们正在提供一系列令人惊叹的创新,并让这些创新轻松地融入到企业现有的技术环境中。”Kurian 表示,Google Cloud 正致力于通过以下四个主要方式让谷歌的创新更容易被采用:第一,更好的跨云网络;第二,通过与 ISV 的合作改善 Google Cloud 集成方式和效率;第三,通过与服务合作伙伴合作推出各类型的 Agent;第四,通过 Google Cloud 提供开放的多云平台并构建互操作性,进而加快 AI 应用的价值实现速度。

“我们很荣幸能与大家一起携手构建这种全新的云服务方式,未来将由我们所有人共同建设” 。Kurian 强调。

可以看到,经过多年的前沿技术革新,谷歌对 AI 边界的探索正不断拓宽,从单一工具到端到端的 AI 平台,从通用领域到垂直行业,从封闭到开放生态的构建,从 AI 试水到规模化部署。现如今,谷歌的模型 + 平台 + 芯片三位一体的差异化优势正逐步显现。

来源:商财洞察君

相关推荐