摘要:在 WWDC 2025 上,苹果正式宣布——你手里的 iPhone、iPad、Mac、Apple Watch、甚至 Apple TV、Vision Pro,都将统一采用全新设计语言:「Liquid Glass 液态玻璃」。
“这是苹果有史以来最大规模的设计革新。”
在 WWDC 2025 上,苹果正式宣布——你手里的 iPhone、iPad、Mac、Apple Watch、甚至 Apple TV、Vision Pro,都将统一采用全新设计语言:「Liquid Glass 液态玻璃」。
这是自 iOS 7 推出扁平化设计以来的又一次视觉革命。苹果称这次的 Liquid Glass 风格,将“定义未来数年的设计语言”。
不仅如此,苹果还做了一个少见的决定:全平台系统版本同步命名为“26”系列
——iOS 26、iPadOS 26、macOS Tahoe 26、watchOS 26、tvOS 26、visionOS 26,让系统命名逻辑更清晰。
先来一睹为快这套全新 UI 风格:
在 X 上,许多网友感叹:“UI 的流行果然是轮回”,一位网友直接甩出了n年前微软的UI界面,暗示了复古风格的返场。
而更令人意外的是,尽管不少媒体预测苹果将回避去年“AI 落地难”的尴尬,不再高调宣传智能能力,但这次库克也是开场就提到了苹果智能!
最重要的是这件事:开放 Apple Intelligence 的核心基础模型,向第三方开发者全面提供调用能力。
这是很聪明的一步棋:与其被人批评“苹果在AI已经落后”,不如和开发者一起建设Apple Intelligence。
你可以想象这意味着什么:
不再只是 Siri 自娱自乐,而是开发者真正可以做“AI 原生 App”了。
除了 UI 和 AI 这两大核心升级,还有这些值得关注的重点更新:
核心 App 重设计:Safari 全屏浏览、Phone 整合页面、Camera 交互优化等iPadOS 多任务窗口彻底进化,支持自由排列与缩放全新 Games App 发布,Apple Arcade 游戏集中管理Vision Pro 增强交互:眼动滚动、PSVR2 手柄支持上线Apple Intelligence 实装:截图后调用 AI 助手识图问答,ChatGPT 深度集成Messages、Phone、FaceTime 加入实时翻译功能watchOS 26:新增“甩腕”手势清除通知,AI 健身搭档上线Xcode 26 内建 ChatGPT 支持,开发流程 AI 化尽管不少人对 WWDC 事先“降低期待”,但发布会当日苹果股价仍下挫超 2%,市场反馈冷淡。
投资者原本期待 Apple Intelligence 能带来真正的“AI 突破”,但 Siri 的重构时间线仍未明确,核心功能也尚未完全落地,成为市场口中的“缺席重磅”。
接下来,我们就来一起梳理这场 WWDC 的重点更新——
你觉得,这一次的苹果更新打动你了吗?
在这次 WWDC 上,苹果正式引入全新设计材质——Liquid Glass(液态玻璃)。
这是一种具备折射和反射特性的透明材质,能够根据内容和环境动态变化。或许是在灵动岛的设计上尝到了甜头,苹果希望这种“液态”的动效,可以为按钮、导航栏、图标、小组件等界面元素注入前所未有的视觉生命力。
苹果表示,玻璃风格灵感来自 Vision Pro 的系统界面,让原本趋于扁平的设计重新获得层次感与空间感:
‘液态玻璃’兼具玻璃的光学质感与 Apple 独有的流动性表现,它会根据内容或环境变化进行转化,甚至能让最日常的交互也变得更有趣、更神奇。”
更进一步,苹果这次还将 UI 全面适配了现代设备的圆角屏幕:从原本为矩形屏幕设计的控件,进化为与硬件造型更协调的新形态。Liquid Glass 材质的控件被作为一层悬浮在内容之上的功能层,随着用户交互进行动态响应。
跟此前媒体盛传的各种APP的icon将转变为圆形不同,苹果干脆直接让界面玻璃化了。
除了浅色、深色和多彩三种模式,居然还新增了一个激进的“全透明模式”!从演示来看,几乎所有元素都在闪光发亮,看起来炫酷,辨识度却可能成问题……
这是多彩模式
这是透明模式
有人回忆起 macOS 10.9 时期的“高透明”争议:
“你说它让我更专注内容,但你让我看得见后面的内容,这不反而更分心吗?”
在Hacker News上也有网友直言不讳地批评了UI设计:
以这次新的设计语言为例,界面现在变得更难阅读、识别和理解了。 这对生产力和易用性来说,是一个巨大的倒退。
这一次的 Liquid Glass,毫无疑问是苹果设计语言的一次跃进。
但它能不能像当年的 iOS 7 那样引发 UI 变革、最终赢得用户口碑,恐怕还得靠实际使用体验来说话。
现在就看上手之后,苹果还能不能让消费者感到“真香”。
苹果 AI 功能更接地气了。
有些是一些跟进型的AI功能,比如:
用户收到语音留言后,系统会自动生成一段摘要,让你不用点开音频也能快速掌握内容。
AI通话筛选功能,会在来电者自报家门后再响铃,同时提供对方的一个信息摘要,帮助用户判断要不要接电话,——对“恐接电话星人”来说,简直是社恐福音。
从讨论热度来看,最受关注的 AI 功能还属这两项——实时翻译和视觉智能。
AI可以说带来了翻译的新时代。苹果现在也上线了系统级实时翻译功能,覆盖 Messages、Phone、FaceTime 三大通讯场景。
在 FaceTime 上聊天时,苹果的翻译功能会提供实时字幕。 而在电话通话中,无论你是否在与苹果用户通话,你说的话将被即时翻译并“说”给对方,对方回应也会翻译回你听得懂的语言。
可惜翻译的语气还比较生硬,缺乏原声中的语调和情绪。如果苹果后续能够集成情感语音合成技术,相信体验会更好,而且在技术上也不难实现。
苹果还推出了一项更“具象”的 AI 功能:Visual Intelligence(视觉智能)。
这是苹果为 iPhone 推出的全新 AI 图像识别能力,用户可以通过截图按钮一键唤起,对屏幕内容进行分析并触发操作,无需依赖特定 App,在任何应用中都可使用。
对于开发者来说,这些AI功能都将通过 App Intents 开发,实时翻译和视觉能力都可以复用到自家APP中。
WWDC 2025 上,苹果首次将 Foundation Models 框架 纳入开发工具套件,开发者终于可以直接调用设备端 AI 能力,构建智能化、隐私友好、离线可用的新一代 App。
与此同时,Xcode 26 也正式支持集成大语言模型(如 ChatGPT),开发过程中的代码生成、调试、设计、文档编写,全面引入 AI 辅助。
苹果全球开发者关系副总裁 Susan Prescott 表示:
“开发者一直是 Apple 平台体验的缔造者。通过访问设备端 Apple Intelligence 基础模型以及 Xcode 26 的智能功能,我们赋能开发者打造更丰富、更直觉的 App。”
Design让开发者也能打造液态玻璃风格的APP
开发者可以在 Apple Intelligence 基础上,使用 Foundation Models 框架构建智能、离线可用、隐私保护的新体验。框架原生支持 Swift,仅需三行代码即可调用模型,内建引导式生成、工具调用等功能,轻松集成生成式 AI 功能。
日记 App「Day One」开发商 Automattic 已将其接入,提供无联网的 AI 写作建议。负责人 Paul Mayne 称:
“Foundation Models 框架让我们重塑了日记的形态,真正做到了隐私与智能的融合。”
Xcode 26 引入多个智能特性,帮助开发者在创意构思、编码、测试、设计优化等环节全面提效:
原生支持集成 ChatGPT,可使用第三方 API Key,或运行本地模型无需注册账号即可体验 AI 代码生成,也可绑定订阅账户获取更高配额新增 Coding Tools,支持一键生成 Playground、快速修复 bug、执行指定任务提升导航体验、改进本地化目录支持、引入 Swift 语音控制功能等Swift 6.2 基于 Swift 6 的并发模型,进一步提升开发效率与可扩展性:
支持与 C++、Java、JavaScript 深度互操作
新增 WebAssembly 支持,开启跨平台部署可能
简化单线程编程,允许模块默认运行于主线程(Main Actor),无需繁琐标注
随着整个科技行业都在疯狂追逐AI,苹果的脚步却显得迟缓——即便这次开放了小型设备端AI模型,许多开发者仍不认为这会带来实质性改变。
正如 AI 育儿 App Bobo 的创始人 Grant McDonald 在接受 华尔街日报 采访时所说:
“苹果的做法确实有意思,但还不足以穿透这个喧嚣的AI时代。”
苹果试图通过开放设备端AI小模型(在iPhone等本地运行)来“赋能”开发者,这些模型更小巧、计算资源消耗少,理论上更安全、响应更快。但实际应用中,开发者们普遍反馈了三大问题:
不能微调:许多开发者已经习惯了使用GPT、Gemini等可微调的云模型。不够强大:对于需要深度AI能力的App而言,小模型可能远远不够;使用受限:只能在某些简单场景中尝试使用。有开发者则形容这次WWDC像“进了糖果店但没什么好拿的”,令人难以兴奋。
相比之下,谷歌、OpenAI等AI巨头虽然时常发布不够完善的演示版本,但凭借快速迭代和开放合作,最终还是兑现了那些“看似魔法”的能力。
而苹果,在经历去年Siri AI功能数次跳票后,似乎变得更加谨慎,不再轻易承诺“AI奇迹”。但如今的苹果,已经没有太多时间留给保守。
无论是寻求外部合作,还还是在系统层面深度嵌入Apple Intelligence,或真正实现LLM驱动的Siri,苹果都需要更快地找到破局之道了。
来源:51CTO一点号