摘要:知名苹果爆料人、彭博社记者古尔曼又带来全新爆料!苹果芯片设计团队正在研发新型处理器,这些芯片将成为未来设备的核心,包括其首款智能眼镜、性能更强的Mac以及AI(人工智能)服务器。
编译 | 王涵
编辑 | 漠影
智东西5月9日消息,知名苹果爆料人、彭博社记者古尔曼又带来全新爆料!苹果芯片设计团队正在研发新型处理器,这些芯片将成为未来设备的核心,包括其首款智能眼镜、性能更强的Mac以及AI(人工智能)服务器。
近年来,特别是在2020年苹果开始用自研Mac芯片取代英特尔处理器之后,其硬件技术部门的芯片团队已成为苹果产品开发引擎的关键部分。知情人士表示,另外还有其他正在开发的处理器,将用于未来Mac及支持Apple Intelligence平台的AI服务器。由于计划未公开,这些人士要求匿名。
苹果公司代表拒绝置评。
一、苹果自研智能眼镜芯片,预计2027年投产古尔曼爆料,自研眼镜处理器基于Apple Watch使用的低能耗芯片设计,其能耗低于iPhone、iPad和Mac等设备的组件。为进一步提升能效,该芯片已通过定制化设计移除了部分模块。该处理器还可以用于控制眼镜计划搭载的多枚摄像头。
与此同时,智能眼镜的研发也传来新进展,苹果正在以代号N401同步推进两种方案(近期已从原内部代号N50变更)。
苹果目前探索的非AR眼镜方案是通过摄像头扫描周围环境,并依赖AI辅助用户。虽然具体技术路线还有待最终敲定,但苹果的这波操作无疑让该款眼镜的功能更加接近Meta产品。
苹果目标在2026年底或2027年启动该处理器的大规模生产,由台积电负责。这意味着若研发顺利,苹果智能眼镜或将在约两年后面市。
据彭博社报道,公司首席执行官Tim Cook决心在眼镜市场击败Meta。但Meta同样攻势迅猛:这家社交巨头将于今年晚些时候推出带显示屏的高端机型,并计划在2027年发布首款真正AR眼镜。
苹果也在加快AI布局。据彭博社报道,该公司正研究为AirPods和智能手表添加摄像头,目标是将这些产品也转化为AI设备。苹果正在为配备摄像头的Apple Watch开发代号Nevis的芯片,并为同类设计的AirPods研发代号Glennie的组件,目标在2027年前完成芯片研发。
目前iPhone已具备名为“Visual Intelligence”的功能,可为照片提供情境分析,例如用户扫描音乐海报后,活动详情可自动添加至日历等。
二、Mac处理器迎来新升级,最早年底可体验M5芯片除小型设备芯片外,苹果还在开发多款新型Mac处理器,包括可能命名为M6(Komodo)和M7(Borneo)的芯片,另有一款更先进的Mac芯片Sotra正在研发中。苹果预计可能最早于今年底在iPad Pro和MacBook Pro上搭载M5处理器。
目前,苹果通过高端Mac搭载的芯片(如M2 Ultra)实现的,诸如远程处理Apple Intelligence请求并向用户设备反馈信息的任务,在未来或许将由AI服务器芯片来完成。据外媒The Information报道,该AI服务器项目将采用与Broadcom合作开发的组件。
该项目代号Baltra,计划于2027年完成。作为计划的一部分,苹果正在评估多种芯片类型,包括主处理核心和图形核心数量为当前M3 Ultra2倍、4倍甚至8倍的方案。这些半导体将提升苹果AI服务的速度与性能,或助其在该薄弱领域实现赶超。
这些新研发的半导体芯片是苹果硬件技术部门(由高管Johny Srouji领导)推进的系列计划之一。据彭博社报道,继今年初在iPhone 16e首发C1调制解调器芯片后,苹果计划明年为高端iPhone推出专业级C2调制解调器,并于次年发布更高端的C3版本。
该部门还负责更远期项目的底层组件研发,包括可无创监测人体血糖水平的传感器与芯片系统。公司目标将该技术整合至未来版本的Apple Watch中。
本次爆料透露出来的信号,表明苹果正加速推进智能眼镜——这种轻量级可穿戴设备的研发,从技术角度来看这款产品未来将与Meta热销的Ray-Ban智能眼镜展开直接竞争。
苹果耗费多年一直试图开发智能眼镜,其最初构想是采用增强现实(AR)技术,将媒体内容、通知和应用叠加于现实视野,但AR技术距离实用化仍有数年之遥。
与此同时,Meta等公司已通过非AR智能眼镜取得成功,这类设备可拍照、播放音频、拨打电话并支持语音助手交互。苹果如今在持续探索AR概念的同时也开始计划进军该领域。
但从底层技术出发,这家iPhone制造商还需大幅提升自身AI技术,方能推出以AI为核心竞争力的设备,以抢占未来市场。
来源:智东西