摘要:在 6 月份 WWDC(苹果全球开发者大会)开幕前夕,苹果公司正式公布了今年针对 iPhone、iPad、Mac、Apple Watch 和 Apple Vision Pro 等设备的全新辅助功能。
文 | 创新科技粉
通读全文 · 约 3 分钟
在 6 月份 WWDC(苹果全球开发者大会)开幕前夕,苹果公司正式公布了今年针对 iPhone、iPad、Mac、Apple Watch 和 Apple Vision Pro 等设备的全新辅助功能。
这些功能的推出,恰逢苹果庆祝其辅助功能创新 40 周年,早在 1985 年,苹果就设立了残障人士办公室,致力于为残障人士提供更便捷的科技体验。
苹果首席执行官 提姆库克 表示:“在苹果,无障碍早已深深融入我们的 DNA。让科技惠及每一个人,是我们所有人的首要任务。我们为今年分享的这些创新成果感到无比自豪,它们涵盖了帮助人们获取重要信息、探索周围世界以及尽情享受个人爱好的各类工具。“
01
这些全新的辅助功能将被整合到苹果即将发布的 iOS 19 和 macOS 16 更新中,而这些更新将在下个月的 WWDC 上正式发布。
不过,苹果此次并未提前提及“iOS 19”这一名称。
今年新增的辅助功能亮点颇多,包括 App Store 上的辅助功能营养标签、Mac 上的全新放大镜应用、苹果个人语音功能的重大更新等。
02
苹果宣布 iOS 19 新增辅助功能,其中对 App Store 的升级备受关注。
今年晚些时候,苹果将在 App Store 列表中新增“辅助功能营养标签”部分。
这一设计与苹果几年前推出的“隐私营养标签”功能类似,旨在让用户能够轻松查看各个应用的隐私保护措施。
新的无障碍营养标签会在用户下载应用前,清晰显示该应用支持的无障碍功能,涵盖旁白、语音控制、更大文本、充足对比度、弱化动态效果、字幕等。
苹果表示,将在 WWDC25 上为开发者分享更多有关无障碍营养标签的详细信息。
03
配合 iOS 19,苹果今年首次在 macOS 16 中引入了放大镜应用。
放大镜应用自 2016 年起就在 iPhone 和 iPad 上推出,为盲人或视力低下的用户提供了极大的便利,使他们能够放大、阅读文本和检测周围的物体。
全新 Mac 版放大镜 app 可与通过“连续互通”相机或 USB 摄像头连接的 iPhone 配合使用。
连接成功后,用户可以通过 Mac 上放大镜 app 中的视频源,轻松放大周围环境。
用户还能操控视频源,调整透视、亮度、对比度、颜色等参数,让画面更易于阅读。
此外,放大镜 app 甚至具备文本识别功能。
例如,在会议或讲座中,Mac 上的放大镜应用可以放大白板,并智能识别白板上的手写文本,使其更清晰易读,方便用户在 Mac 上直接阅读。
04
辅助功能阅读器是一项全系统开放的新功能,旨在让文本更易于阅读。
苹果公司解释道,辅助阅读器是一种全新的系统级阅读模式,旨在帮助患有各种残障(例如阅读障碍或弱视)的用户更轻松地阅读文本。
辅助阅读器可在 iPhone、iPad、Mac 和 Apple Vision Pro 上使用,它为用户提供了全新的方式来自定义文本。
用户可以根据自己的需求,选择丰富的字体、颜色和间距选项,还能获得对语音内容的支持。
辅助阅读器可以从任何 app 启动,并且内置于 iOS、iPadOS 和 macOS 的放大镜 app 中,方便用户在现实世界中与文本互动,比如在书籍或菜单上。
05
苹果公司宣称,新的盲文访问体验可以将用户的苹果设备“变成一个功能齐全的盲文笔记记录器,并深度融入苹果生态系统”。
借助内置的应用启动器,用户可以通过盲文屏幕输入或连接的盲文设备轻松打开任何应用。
借助盲文访问功能,用户可以快速以盲文格式记笔记,并使用 Nemeth Braille(一种常用于数学和科学课堂的盲文代码)进行计算。
此外,用户可以直接从 Braille Access 打开盲文就绪格式 (BRF) 文件,解锁之前在盲文笔记设备上创建的各种书籍和文件。
该功能还与苹果强大的实时字幕功能相结合,允许用户在盲文显示器上实时转录对话。
06
说到实时字幕,今年晚些时候推出的 watchOS 12 将首次为 Apple Watch 带来实时聆听控制功能。
值得一提的是,实时聆听功能于 2018 年随 iOS 12 首次登陆 iPhone。
该功能使用 iPhone 的麦克风将内容直接传输到 AirPods 和 Made for iPhone 助听器,方便用户聆听。
今年,随着 watchOS 12 的发布,Apple Watch 上将新增实时聆听 (Live Listen) 控制功能,包括远程启动或停止实时聆听会话、快速返回会话以补充可能遗漏的内容等。
此外,它还支持实时字幕,用户可以直接在 Apple Watch 上通过实时文字记录来跟踪对话。
07
苹果还宣布了今年 Apple Vision Pro 即将推出的全新辅助功能。
对于盲人或视力低下的用户,visionOS 将利用 Apple Vision Pro 上的先进摄像头系统扩展视觉辅助功能。
借助强大的 Zoom 功能更新,用户可以使用主摄像头放大视野内的一切,包括周围环境。
对于 VoiceOver 用户,visionOS 中的实时识别功能利用设备内置的机器学习来描述周围环境、查找物体、阅读文档等。
对于辅助功能开发者,新的 API 将使获得批准的 app 能够访问主摄像头,为 Be My Eyes 等 app 中的视觉解读提供实时、人对人式的帮助,让用户能够通过更多方式解放双手,了解周围环境。
08
苹果于 2023 年在 iOS 17 中首次推出了革命性的个人语音功能。
该功能允许用户创建并保存与自己声音相似的语音,专为面临失去说话能力风险的人群设计,例如近期被诊断患有肌萎缩性脊髓侧索硬化症 (ALS) 的人。
该功能与实时语音功能 (Live Speech) 相结合,允许用户输入自己想说的内容,并让语音助手用自己的声音朗读出来。
Personal Voice 初始版本的设置过程要求用户说出 150 个不同的短语来训练苹果的机器学习模型,且这些语音随后会在一夜之间进行处理。
然而,今年 iOS 19 系统彻底革新了设置流程。
现在,用户只需录制 10 个不同的短语,就能在一分钟内完成设置,而无需耗费一整夜的几个小时。
苹果表示,最终生成的语音“更流畅”“更自然”。
此外,个人语音功能今年还将增加对西班牙语(墨西哥)的支持。
09
这些功能只是苹果今年无障碍功能升级的一部分。
苹果今年晚些时候还将在其平台上推出一系列其他新功能,包括眼动追踪、背景声音、声音识别等功能的升级。
有了新的 EQ 设置、一段时间后自动停止的选项以及快捷指令中的全新自动化操作,背景声音的个性化设置变得更加便捷。
背景声音有助于减少干扰,提升专注力和放松感,部分用户发现这有助于缓解耳鸣症状。
对于面临失语风险的用户,Personal Voice 功能将比以往更快速、更便捷、更强大。
它利用设备内置机器学习和人工智能的先进技术,仅需 10 个录制的短语,即可在不到一分钟的时间内创建更流畅、更自然的语音,并且新增对西班牙语(墨西哥)的支持。
车辆运动提示可帮助减少乘坐行驶车辆时的晕动病,现已登陆 Mac,同时还提供在 iPhone、iPad 和 Mac 上自定义屏幕动画点的新方法。
iPhone 和 iPad 上的眼动追踪用户现在可以选择使用开关或停留进行选择。
使用眼动追踪或开关控制时,在 iPhone、iPad 和 Apple Vision Pro 上进行键盘输入现在更加轻松,改进包括新的键盘停留计时器、减少使用开关输入的步骤以及为 iPhone 和 Vision Pro 启用 QuickPath。
通过头部追踪技术,用户将能够更轻松地通过头部运动来控制 iPhone 和 iPad,类似于眼动追踪。
对于行动不便的严重用户,iOS、iPadOS 和 visionOS 将添加新协议以支持脑机接口 (BCI) 的开关控制,这是一项新兴技术,允许用户无需身体移动即可控制他们的设备。
辅助访问功能新增了一款定制版 Apple TV app,并配备了简化版媒体播放器。
开发者还将获得支持,利用辅助访问 API 为智力和发育障碍用户打造定制体验。
iPhone 上的音乐触觉变得更加可定制,用户可以选择体验整首歌曲或仅适用于人声的触觉,还可以选择调整敲击、纹理和振动的整体强度。
声音识别添加了姓名识别功能,为耳聋或听力障碍的用户提供了一种新的方式,让他们知道何时有人叫自己的名字。
语音控制功能为 Xcode 中的行动不便的软件开发者带来了一种全新的编程模式,还新增了跨设备词汇同步功能,并将扩展语言支持,包括韩语、阿拉伯语(沙特阿拉伯)、土耳其语、意大利语、西班牙语(拉丁美洲)、普通话(台湾)、英语(新加坡)和俄语。
Live Captions 增加了对英语(印度、澳大利亚、英国、新加坡)、普通话(中国大陆)、粤语(中国大陆、香港)、西班牙语(拉丁美洲、西班牙)、法语(法国、加拿大)、日语、德语(德国)和韩语的支持。
CarPlay 的更新包括对大文本的支持,通过 CarPlay 中声音识别功能的更新,失聪或听力障碍的驾驶员或乘客现在可以收到婴儿哭声的通知,以及喇叭和警笛等车外的声音。
共享辅助功能设置是一种新方式,用户可以快速临时地与其他 iPhone 或 iPad 共享其辅助功能设置,非常适合借用朋友的设备或在咖啡馆等场合使用公共自助服务终端。
苹果一直致力于通过科技创新,为残障人士提供更便捷、更丰富的科技体验。
这些全新的辅助功能,无疑将进一步提升残障人士的生活质量,让科技真正惠及每一个人。
来源:创新科技粉