Meta推出“音频到表情”SDK,可更好地驱动Avatar的面部表情
Meta 近期为其 Quest 头显 v71 系统引入了一项名为“音频到表情”(Audio to Expression)的新 SDK。这一 AI 模型通过分析用户的语言和声音细节,能够更精准地驱动 Avatar 的面部表情,为用户带来更加丰富的虚拟社交体验。
Meta 近期为其 Quest 头显 v71 系统引入了一项名为“音频到表情”(Audio to Expression)的新 SDK。这一 AI 模型通过分析用户的语言和声音细节,能够更精准地驱动 Avatar 的面部表情,为用户带来更加丰富的虚拟社交体验。
近日,Avatar 生成软件提供商 Copresence 推出了全新的毛发模型。借助这一创新技术,通过 Copresence 应用扫描生成的 Avatar 将拥有多达 10 万根细致入微的头发,增强了在 Blender、Unreal 引擎等主流工具中的视觉效果
模型 avatar copresence 2024-12-19 12:13 3
这段对话来自于2024年北美放射学年会(RSNA2024)联影集团展台的数字人体验专区,由联影集团子公司联影智能研发的数字人uAI Avatar正在回答参展观众的各类医疗问题。据展台工作人员介绍,uAI Avatar是一款基于 uAI 语音识别、医疗文本大模型
“嘿,Avatar!有名患者鼻咽部正常,但是气管狭窄,肺门周边有病灶,下一步的建议是什么?”“气管狭窄和肺门周围病灶需要进一步评估,尽管粘膜看起来正常。下一步建议进行支气管镜检查和活检,以明确诊断。”