揭秘Ray-Ban Meta是如何诞生的| 对话Meta智能眼镜产品负责人贾可南

摘要:11月26日,在GenAI Assembling与硅星人一起在硅谷Menlo Park举办的「AI机器人与可穿戴设备未来」的线下活动上,硅星人创始人兼CEO骆轶航与Meta AI/AR眼镜团队产品负责人贾可南进行了一场对话。

11月26日,在GenAI Assembling与硅星人一起在硅谷Menlo Park举办的「AI机器人与可穿戴设备未来」的线下活动上,硅星人创始人兼CEO骆轶航与Meta AI/AR眼镜团队产品负责人贾可南进行了一场对话。

贾可南是广受欢迎的Ray-Ban Meta智能眼镜的产品负责人,同时正在负责Meta下一代智能眼镜的研发。在这个主题为「Creating a New AI Hardware: The Art of Trade-off」的对话中,我们聊了聊Ray-Ban Meta诞生幕后的故事,以及一款AI硬件背后的各种权衡细节和对于未来的思考。

以下为现场对话实录:

贾可南|Meta AI/AR眼镜团队产品负责人

骆轶航 |硅星人&GenAI Assembling 创始人兼CEO

Ray-Ban Meta:从智能眼镜到日常伴侣

骆轶航:我想从用户的角度问一个问题——你会戴Ray-Ban Meta智能眼镜多久?对你来说,最常见的使用场景是什么?

贾可南:大家好,我是可南,Meta智能眼镜团队的产品经理,目前负责下一代智能眼镜的开发。今天很高兴能分享关于Ray-Ban Meta的情况。

对我来说,最主要的使用场景是第一视角拍摄照片和视频,特别是在旅行和活动,我出行必备,可以解放双手,不用再掏出手机,随时就能记录美好瞬间。例如,去洛杉矶的迪士尼乐园时,坐过山车不能带手机,因为这样很危险。但戴上Ray-Ban Meta的太阳镜,我可以记录下整个过程,非常棒。此外,今年我还去了两场音乐会,不再需要举着手机录像看小屏,可以一边享受演出,一边录下精彩时刻。同样,和朋友旅行时,例如在夏威夷骑山地车,我也会使用它听音乐和录像,这让我能身临其境保持沉浸感,同时记录下美好片段。这正是我们Ray-Ban Meta产品的一个主要目标。

此外,我现在越来越多地使用其AI功能。比如旅行时,在博物馆里我不用阅读很长的说明,可以直接问Meta AI提问我自己感兴趣的具体问题。眼镜还可以实时翻译,我之前在欧洲出差,眼镜帮我快速翻译了菜单和路标,非常方便。因此,我对AI功能的依赖也在增加。

骆轶航:我可以举一个我自己使用Ray-Ban Meta AI功能的例子。上月中旬,我在西雅图的航空博物馆,站在一架MiG-3飞机前时,我说:“Hey Meta,拍张照片。”接着又问:“告诉我这架飞机的背景故事。”几秒钟后,从眼镜的镜框传来声音,告诉我这是一架MiG-3,制造于1940年,曾在苏联对德战争中服役,还补充了它的研发历史。我觉得这是一个很好的案例,展示了多模态Llama模型的应用。

我对AI与可穿戴设备的结合非常感兴趣,你能详细解释这项技术在眼镜上的运作方式吗?我们知道有些AI功能依赖云端运行,而有些则使用边缘AI。能否更具体地说明两者的实现原理?

贾可南:当然可以,这个系统的架构实际上比很多人想象的更有趣。比如,当Thomas说“Hey Meta”,想了解这架飞机时,整个流程分为以下三个部分:

1.眼镜本身,2.手机端配套应用 Meta View Companion App,3.云端服务器

当你说“Hey Meta”时,唤醒词模型会在设备本地运行,启动AI功能并通过语音识别理解你的查询内容。如果只是像“拍照”这样的简单指令,处理可以直接在眼镜上完成。

对于更复杂的多模态任务,则会在云端进行。这时,眼镜通过蓝牙连接手机的配套应用,手机再通过WiFi或蜂窝网络将查询发送到云端服务器进行处理。

系统会调用Llama 70B模型,完成包括知识库检索、答案生成,以及隐私和安全过滤等。处理完成后,响应通过手机返回眼镜,并以音频形式播放。

关于处理是在设备端还是云端进行,这个领域存在许多讨论。对于眼镜这种形态的设备来说,确实有很多权衡。由于设备体积小、重量轻,又受功率和热量限制,将复杂任务放到服务器端是目前的最佳方案。这种架构的优势在于,通过蓝牙将任务传递到手机,再由云端完成主要计算和响应,可以极大地降低设备功耗,同时保证高质量的答案输出。

挑战在于优化延迟,因为没有人希望等待时间过长。通过服务器端处理,用户可以获得来自大型模型的最佳答案质量。而设备端与服务器端的混合架构则能确保简单指令快速、可靠地完成。

例如,实时语音翻译功能就是在设备本地运行的。当你用法语或西班牙语对我讲话时,翻译会直接在眼镜上完成实时语音翻译。而对于更复杂的多模态查询,则通过云端处理来实现最佳性能。这种架构需要团队在硬件设计、系统优化、功耗和热量管理以及AI功能开发上做大量工作,确保用户提出简单问题时,能够获得高质量、低延迟且可靠的响应体验。

骆轶航:好的,让我们继续深入探讨AI与可穿戴设备的结合。你提到的使用场景是旅行拍照和演唱会录像。我觉得这些场景和翻译功能并不需要太多复杂的AI支持,虽然需要一定的AI特性,但并非依赖大语言模型的推理能力。我记得Ray-Ban Meta是去年10月发布的,对吧?

贾可南:是的,第二代Ray-Ban Meta是去年10月发布的。第一代Ray-Ban Stories则是在2021年推出的。

骆轶航:AI功能是在今年4月才添加的。从你的个人经验或用户调查来看,在过去一年多时间里,使用场景或应用方式发生了哪些变化?

贾可南:这是一个很好的问题。AI功能推出后,我们确实看到了强劲的增长和用户的积极采用。关于Ray-Ban Meta,值得一提的是,当2021年第一代Stories发布时,我们的定位主要是相机+音频眼镜,功能聚焦于第一视角拍摄、听音乐和接打电话。这些功能非常受欢迎。Ray-Ban Meta产品的独特之处在于,它不仅仅是一副配备大语言模型和AI功能的智能眼镜,它的设计也非常时尚,很多用户喜欢它的外观,同时有很实用的拍摄和音乐播放功能。

音频功能是我们使用率和留存率最高的功能之一。很多人发现,佩戴这款眼镜后,他们不需要频繁戴上或取下AirPods,可以取代蓝牙耳机的使用场景,这大大提升了便利性。

今年4月推出AI功能后,随着新模型的优化,这些功能持续改进。Ray-Ban Meta作为一个完整的独立硬件产品,与市场上的其他的AI软件产品有所不同。如果人们需要每天携带它,除了手机和钥匙之外,增加了心理负担。因此,用户选择这个设备要么是因为真的非常喜欢,要么是因为它能带来巨大的价值。

AI功能正在显现出显著的价值。一些功能较为传统,比如天气查询、设置计时器或免提拍照录像等;而另一些则展示了更有趣的新趋势,比如实时翻译或多模态功能——像是识别植物或快速查询信息。这些是一些早期的新兴应用场景。

随着模型的持续改进和针对眼镜的优化,Ray-Ban Meta展现了巨大的潜力。因为它始终佩戴在脸上,能够看到用户所看到的,听到用户所听到的,并将音频直接传递到耳朵中,交互自然用户无需掏出手机进行操作。例如,在博物馆或旅游景点时,你只需直接向AI提出问题,就可以立即获得回答,这非常实用。

今年9月份的Meta Connect大会上,我们宣布了日后将会推出一些基于Llama模型的实时问答AI功能,我认为这将成为最具潜力的类别之一。

更重要的是,这些AI功能可以与用户已经喜欢的其他拍摄,音频功能结合在一起。与一些纯AI设备相比,Ray-Ban Meta是一款成功的多功能集成产品。那些仅关注特定AI功能的设备可能会让人觉得新鲜来尝试,但最终很容易被遗忘,成为抽屉里的摆设。而Ray-Ban Meta成功的原因就在于,它综合了时尚的设计和多功能性,让用户真正愿意频繁使用。

1

智能眼镜背后的技术权衡之道

骆轶航:我很好奇,听说将Llama模型整合到智能眼镜中在开发过程中充满挑战。你能否分享一下团队遇到的具体困难?特别是在将大语言模型引入设备并实现多模态功能时,这确实是个复杂的过程。你们是如何与研究团队和开发团队合作,克服这些挑战的?

贾可南:我们有很强的AI团队,包括模型研究和智能眼镜集成方面。如果我们再回顾一下架构,包括眼镜、手机和服务器端,以及如何直接进行语音响应,其中一些挑战包括如何确保响应针对眼镜和音频反馈进行优化。如果你在ChatGPT输入问题,通常会得到很长的回复。但LLM冗长的回复内容并不适合眼镜形态,比如语音合成(TTS)回复很长,需要听两三分钟,这对用户来说体验很不理想。所以我们投入了大量工作来确保能优化总结回复,并提供最相关的即时回应。

另一个关键挑战是延迟。系统运行涉及多个环节,包括眼镜端的处理、数据传输,以及云端服务器的计算。我们的团队逐步拆解每一个步骤,改进整体延迟和可靠性。因为如果蓝牙连接突然断开,用户可能不知道发生了什么,只会认为Meta AI不工作了。

即使在发布后,我们也在思考如何将AI体验从“不错”提升到“很棒”。比如你提到的,现在必须说"Hey Meta, look and tell me more about this plant",这不够自然,你可能想直接说"Hey Meta, what is this plant?"。所以我们在自然交互方面投入很多,确保人们可以直接与AI对话。现在你不需要说"look and",可以直接问题,系统会询问是否需要拍照,或在足够明确的情况下直接执行。

此外,我们还开发了多轮连续对话功能。在博物馆里,用户可能不想每次提问都重复“Hey Meta”。现在,当你戴着眼镜时,LED指示灯会显示系统正在持续倾听几秒钟,方便你提出后续问题。

总体而言,我们的重点是确保AI在眼镜上运行可靠、快速,质量优秀。我们一直在投入让用例更有价值,交互更自然,并支持更多语言,在国际化方面也颇有挑战性。

骆轶航:既然你提到了优先级、延迟、可靠性和响应质量,我们可以进一步探讨这些权衡和平衡的重要性。我认为它们对AI设备的未来,尤其是下一代AI眼镜来说至关重要。

我的观点是,眼镜可能是未来最有前景的AI设备之一。原因在于,人类的头部包含了最重要的感官器官——眼睛、耳朵和嘴巴。从本质上看,头部本身就像一个基于碳的多模态系统,而眼镜可以成为它与基于硅的多模态AI自然交互的桥梁。眼镜有着700多年的历史,用户对佩戴眼镜的接受度很高,不会感到突兀。而且,它可以很好地整合人类感知与AI智能,实现协同工作。

因此,这些权衡和平衡变得尤为关键。因为当我们人类在观看、聆听和表达时,场景可能变得复杂。那么在开发像AI眼镜这样的产品时,这些功能的优先级是如何划分的?哪些是最重要的?其次是什么?第三是什么?如果必须设置一条基准线,它又是什么?

贾可南:我也希望能有一个简单的答案来解释这些权衡,但现实情况非常复杂。如果你问用户对Ray-Ban Meta或AR眼镜的期望,他们通常会说希望设备更轻、更小,但同时性能更强、电池续航更久,图像质量更高。然而,这些要求之间往往存在矛盾,不可能同时满足所有需求。

在开发这种消费级电子设备,尤其是戴在脸上的设备时,我们需要非常慎重地选择在哪些方面划定界限。举个例子,这种权衡在第二代Ray-Ban Meta的摄像头设计上体现得非常明显。

第二代的图像质量和FOV相比第一代有了显著提升,从500万像素提高到1200万像素,同时加入了许多后期处理和图像优化功能。但与第一代的双摄像头设计不同,第二代只配备了一个位于左侧的1200万像素摄像头。

起初我们有两个摄像头是考虑到可以获取深度信息,或许可以拍摄一些创意格式的照片,但实际使用率可能不高。相比之下,用户更关注照片质量和FOV。因此,我们决定专注于单摄像头设计。双摄像头确实可以有不同的镜头、变焦和更广的视野,但在这么小的设备上,电池在右侧,如果在这里再加一个摄像头,就会占用机械空间,挤压电池容量,同时也会影响功耗。

对于这样小型的设备来说,功耗和内存也是一个关键问题。通过去掉右边的一个摄像头,但是提升摄像头的像素和FOV,我们释放了约10%的机械空间,这对改善电池续航、降低功耗以及优化散热至关重要。同时,这一设计仍然能够满足用户对Instagram或Facebook Stories等社交平台分享的需求,尤其是拍摄随意场景时的使用需求。

这个案例充分说明了,我们需要在性能、尺寸、重量、人体工学、功耗和散热之间进行全面权衡,以实现最佳的用户体验。这些因素是我们在设计时最关键的考虑。

骆轶航:那AI不是最关键的吗?

贾可南:AI当然非常重要,但刚才我们讨论的更多是关于摄像头的硬件设计决策。回到设备端与服务器端的例子,对于AI来说,我们也必须在延迟、响应速度和功耗之间找到平衡。不同的使用场景会有不同的优先级,具体的权衡点也会随之变化。

骆轶航:好的,能否分享一些具体案例或故事吗?

贾可南:我可以用相机架构的例子来说明团队如何处理这些复杂的权衡。作为产品团队,我们的职责并不是直接做决定,而是清晰地界定问题。例如,我们希望提升相机和图像质量,但在机械结构、电池空间、功耗、延迟、散热以及成本方面都存在限制。我们的任务是列出所有可能的解决方案,从不同维度去分析它们的表现,然后与各团队合作进行评估。

最终你会得到一个类似热图的表格,显示每个方案的优劣。通常没有哪个方案在所有方面都最优。例如,单摄像头的设计虽然在提升图像质量方面不是最顶尖的,但它在其他关键方面,比如功耗和电池空间利用率上表现更好。

在这种情况下,我们需要团队共同决定优先级是什么。在这个具体的例子中,我们认为提升图像质量很重要,但同时必须严格控制功耗和电池续航。虽然有些团队可能倾向于其他方案,但他们需要理解这个逻辑,并接受最终的决定。通常会有很多辩论,但最后我们秉承“不同意但服从”的原则,因为时间表和制造计划不允许我们无限推迟决策。一旦架构确定下来,软件团队还需要在这个硬件基础上做进一步的优化。因此,这个过程高度协作,需要大量的讨论和权衡。

骆轶航:在与供应链或制造商合作时,你们遇到过哪些挑战?

贾可南:这种全新的设备并不能仅仅通过定义用例和规格就直接投入生产。制造中的挑战包括如何在实际生产中确保可靠性和质量,以及在目标产量下实现性能要求。我们需要和全球的合约制造商密切合作,深度理解制造流程,寻找改进空间。

从AI眼镜到AR眼镜,往往需要需要开发全新的模组并实现规模化生产。这是一个非常令人兴奋的阶段,但也充满了挑战。特别是对于智能眼镜来说,不仅制造和后端运营复杂,市场推广也是一个巨大难题。

传统眼镜通常通过验光师或眼镜店销售,而消费电子产品则依赖Best Buy、亚马逊等渠道。如何教育用户了解配镜过程?如何在零售店展示产品?这些都需要我们与渠道合作伙伴密切协作。我们与拥有Ray-Ban品牌的EssilorLuxottica合作,他们在眼镜行业有着丰富的经验和庞大的销售渠道。这对我们来说是一个巨大的学习过程,因为这是时尚与科技的结合——传统眼镜加上AI和智能功能。通过这次合作,我们不仅学习如何让消费者理解和接受这种新形态的设备,也在探索如何更好地在市场上推广这样一款融合了科技与时尚的产品。

AI硬件的破局思考:借鉴、竞争与未来场景

骆轶航:让我们谈谈以前的经验。在第一代Ray-Ban Meta之前,Meta在VR设备方面投入很多,比如VR头显设备等。有什么从VR设备开发中学到的经验可以用到AR眼镜、AI眼镜的开发中吗?

贾可南:我认为有一些共同的经验,但设备限制很不同,这会导致不同的决策。共同点是它们都是复杂的集成系统,都有不同的模块,比如显示、音频和机械结构。但VR是更大的头戴设备,通常在家里使用,而眼镜要更轻便,可以在外面戴着走动。

我们有共同的小型化目标。在Quest方面,我们努力让它更小;在AI眼镜和未来的AR眼镜上也一样,都想让它更小、更便宜、性能更好。但因为限制不同,比如在尺寸、散热、功耗方面的容忍度不同,所以决策也会很不同。

另外,AR眼镜和VR头显的显示模块也不同。它们有一些共同点,需要考虑2D/3D内容和系统交互设,因为你不是用鼠标或触摸屏,而是使用手势追踪、眼动追踪,或者我们今年发布的EMG(肌电图)技术,但由于用户体验的不同,显示模块的要求和软硬件的优化方向也各有侧重。

当然,我们在内部有许多共享团队,比如显示和光学团队在AR和VR的项目中能够互相分享经验,在系统设计、交互模型和制造、市场推广方面也有很大的协同效应。但具体到产品、用例和权衡时,差异还是非常大的。我认为在可预见的未来,这些领域的产品方向不会完全趋同。因此,我们可以互相学习,但实际开发中的考量是非常不同的。

骆轶航:那从智能手机厂商那里有什么可以借鉴的经验吗?还是说这些经验并不值得参考?

贾可南:从手机或其他传统消费电子产品中确实有很多有趣的经验可以借鉴。我之前参与过传统智能音箱/智能屏的产品开发,比如Meta的Portal智能屏。从其他形态的产品中,比如智能手表或语音助手、智能屏,我们学到的是:要让人们愿意多带一个独立设备,它必须提供足够多的价值。因为现在人们用手机就能做很多事,手机有AI功能、相机等,你需要真正与众不同。你要么针对利基市场,比如为创作者开发专门的相机,要么面向普通市场时就要考虑AI和其他用例的组合,不然人们就不会记得再次使用它。

骆轶航:你提到单一功能的AI设备往往难以让用户持续使用。我们能否谈谈其他AI可穿戴或便携设备?比如,有些设备像AI徽章,可以录制视频或会议声音,还有像Rabbit R1这样的AI硬件一度引起关注。最近还有会议记录设备,可以与手机配合使用,为用户总结会议或讨论内容。这些设备专注于解决单一问题,你如何看待它们?特别是相比之下,Ray-Ban Meta既不是单一功能设备,也不仅仅是AI设备。

贾可南:我认为问题不仅仅在于功能的单一性。许多AI设备的挑战在于找到一个价值足够大的核心用例,而且这个用例必须重要到让用户记得去使用设备。现在我们看到很多概念先行的设备,营销宣传很强,但关键问题是:为什么用户会选择这个设备,而不是继续使用手机?

手机已经可以运行你需要的大多数AI模型,而且它是多模态的,针对这些功能做了很多优化。对于Ray-Ban Meta来说,我们的定位并不仅限于AI设备,而是一个多功能设备,提供拍摄、音频和AI功能的整合体验。

你提到了Rabbit R1和其他类似产品,即使你把一件事做得很好,现在面临的挑战是:如何确保你不仅仅是一个功能?如果之后苹果或其他手机厂商集成了这个功能,用户还有理由选择这些设备吗?

最近我购买了一些非AI的消费电子设备,它们让我印象深刻,并且经常使用,尽管它们是单一用途的。举两个例子:

• reMarkable:一款来自挪威的电子墨水记事本。虽然价格昂贵,但它的销量已经超过百万台。它专注于为用户提供一种极简的数字笔记体验,满足那些不喜欢用iPad记笔记的人群需求。这是数字极简主义的典范,人们喜欢它,因为它把“简单”做到极致。

• Freewrite:一款电子墨水打字机。它帮助我专注于当下写作,远离干扰,非常符合我追求专注的需求。

这些设备的成功在于它们明确了目标市场,并为特定用户的特定需求进行了深度优化。它们不是简单的AI概念或创意,而是真正为特定场景和用户量身打造的产品。即使功能单一,只要做到极致,人们就会愿意为之买单。

这也是很多以AI为主打的设备面临的困境——它们既没有在单一功能上做到极致,也没能提供一个足够吸引人的多功能价值包。这就导致它们处在一个尴尬的中间地带,用户会问:“为什么我要额外带一个设备?”

不过这是一个很有趣的阶段,人们会尝试不同的形态,改进不同的用例。我们拭目以待哪些能成功。我认为眼镜是最有趣的形态之一,但人们会不断尝试,我们会看到什么有效,什么无效。

骆轶航:让我们聊聊AI或AR眼镜的未来。我不确定你是否知道,现在中国有多少品牌在生产这类眼镜设备?你能猜个数字吗?

贾可南:我不清楚具体数字,但我见过很多品牌。

骆轶航:是5个、10个还是20个?哪个更接近?

贾可南:肯定超过20个。

骆轶航:你怎么看待这个火热的AI/AR眼镜市场?对于做这类产品的公司来说,核心竞争力是什么?就像特斯拉凭借自动驾驶和电动汽车颠覆了市场,而中国也有至少5-6个非常有竞争力的品牌表现出色。你怎么看这种竞争?

贾可南:我认为我们正处在一个非常有趣的阶段,这个品类正在迅速爆发,获得了消费者、品牌和制造商的极大兴趣。这是件好事,如我所说,人们会尝试不同的形态、不同的眼镜设计和不同的使用场景。但我认为一个挑战是,无论公司在哪里,规模大小如何,这都是一个需要从硬件、软件到市场推广进行整体优化的集成设备。

如果你只做软件,就很难针对这种新形态进行优化。比如,眼镜的架构并不稳定,音频接口的布局、摄像头的位置和性能等都在变化。同样地,如果你只专注硬件,而不控制模型端,也很难解决系统和硬件连接上的挑战,比如模型质量与硬件性能的匹配问题。这就是为什么我们看到许多大公司进入这个领域——它们有能力从硬件、软件到渠道整合进行优化,并且通过强大的品牌和销售网络提升用户体验。

虽然很多品牌都在推出类似Ray-Ban Meta架构的产品,但要让用户体验真正出色,你需要解决所有这些不同类别中的细节问题。这对行业来说是好事,我们会继续前进。

骆轶航:确实如此,这需要硬件、软件和市场推广的完美结合。具体到Meta的Llama模型,Meta在这三个方面的核心优势是什么?硬件部分竞争非常激烈,而在软件和Llama模型上大家的能力似乎差别不大。那么在其他方面呢?你如何评价Meta在硬件上的能力?毕竟Meta并不是以硬件闻名,对吧?

贾可南:这是个很好的问题。我可以谈谈与EssilorLuxottica的合作如何帮助我们,特别是在这个领域。如你所说,我们是一家软件公司,在模型方面很出色。但同时我们做硬件已经很久了,Reality Labs已经有10年历史,我在那里工作了6年多。所以我们在制造消费电子产品方面有很多经验。

与EssilorLuxottica和Ray-Ban的合作非常好,特别是在工业设计方面,如何制作人们真正喜爱的时尚产品,打造标志性设计。在眼镜制造方面有很多我们不知道的东西,他们有丰富的经验,是世界上最大的传统眼镜生产商。我们一起研究这如何影响颜色、材料、表面处理以及硬件机械设计。我们也从他们那里学到了很多。

在渠道方面,我们通过Quest VR积累了消费电子渠道的经验。但眼镜领域很不同,这是戴在脸上的医疗设备。我们从Essilor Luxottica那里学到了很多关于镜片设计、渐变处理、涂层优化、渠道销售以及品牌和设计策略的知识。我认为我们在不断进步,特别是在眼镜方面在重塑自己,在VR领域也做得很好。这将是一个很有趣的重塑过程。

骆轶航:听起来,Meta如果收购一个镜片品牌来实现这些目标,似乎是有意义的,对吗?

贾可南:实际上,我们已经与EssilorLuxottica建立了长期的战略合作关系,并签署长期战略合作协议。EssilorLuxottica拥有众多品牌,不仅包括Ray-Ban,还有许多其他知名品牌。这样的合作给我们带来了巨大的优势。

打造一个标志性的品牌并非一蹴而就。例如,有些用户热爱经典的Ray-Ban设计,现在他们希望通过升级到智能眼镜继续享受这个品牌的魅力。这个合作关系帮助我们很好地实现了这一点,为我们的智能眼镜发展奠定了坚实的基础。

骆轶航:接下来可能是我的最后一个问题。展望未来,在AI硬件产品方面,你有哪些让你感到兴奋的想法?不仅限于Ray-Ban Meta。

贾可南:我对不同产品形态和场景的未来非常期待。比如,在教育领域,或者博物馆这样的环境中,我特别感兴趣如何创造更多互动场景,让人们能够学习和创造,无论是通过机器人还是教育性玩具。这些概念非常吸引人,比如讲故事的智能玩具,或者能够提升学习体验的教育设备。

通用设备的开发确实充满挑战,我们需要找到最合适的产品形态。但我相信未来会有许多尝试,既有高度个性化的产品,也可能是环境式的设备。例如,在公共空间,比如博物馆,如何设计一个可以与你互动的导游设备,同时还能保持私人化的体验?这类场景非常有潜力。

我非常期待看到这些不同形态的设备如何在具体场景中落地,比如教育、娱乐和旅行。我相信,这些创新将彻底改变人们的生活和生产方式,也让我对未来充满期待。

来源:硅星人一点号

相关推荐