摘要:最近,《王者荣耀》的陪伴型 AIagent “灵宝”成为社交媒体的常客,各种抖机灵、高级黑的接梗,让玩家、主播们拍案叫绝。要知道,灵宝最早线时的表现其实不尽如人意,甚至被小红书网友吐槽为毫无情感的“工业塑料风”,结果 3.0 版本开始后,风评突变,举手投足间都
最近,《王者荣耀》的陪伴型 AIagent “灵宝”成为社交媒体的常客,各种抖机灵、高级黑的接梗,让玩家、主播们拍案叫绝。要知道,灵宝最早线时的表现其实不尽如人意,甚至被小红书网友吐槽为毫无情感的“工业塑料风”,结果 3.0 版本开始后,风评突变,举手投足间都显得“很有活”。
灵宝的快速进化,只是陪伴型 AI 的冰山一角。不久前, GPT-4.5 在一项由加州大学圣地亚哥分校认知科学系主导的研究中, : 以“人格扮演”方式首次在标准图灵测试中超越人类的表现。与此同时,各种情感陪伴大模型以实体、虚拟产品为载体,出现在人们的生活圈当中。
比另一半更懂你的 Deep Seek 、在游戏里和你沟通配合的“队友”,亦或是社交平台邂逅的网友,都有可能是 AI 在发挥作用。比如有网友在对话框里输入 " 孩子近视了怎么办 " , DeepSeek 不仅列出科学护眼方案,更捕捉到文字背后的焦虑,在结尾给出了这样的回答: " 孩子的视力不是您育儿成败的标尺,在孩子未来辽阔的人生图景里,这只是一块小小的拼图。 "
别小看这样一句“鸡汤总结”,它带给用户的情绪价值已经达到了专业心理咨询师级别—— 这是典型的心理学认知行为疗法,通过逻辑洞察到用户的自责情绪,并给予对方尚未明说,但内心渴求的理解和接纳。
这一应用场景的巨大市场容量,已经吸引到大厂们的注意力。字节跳动正在探索的情感大模型,正在于其情感识别与表达能力,它能够敏锐地捕捉文本中细腻的情感脉络,无论是喜悦、悲伤、愤怒,还是其他更为微妙复杂的情感,都能被其精准地识别与表达。此外,汤姆猫 AI 情感陪伴机器人,也已经在英文口语启蒙、兴趣引导、科普教育方面取得了一定成绩。
图片由AI生成
01
AI “革命”心理咨询师,打破精英化服务的“虚假滤镜”
心理问题已成为当代年轻人无法回避的重大议题,工作压力、原生家庭纠葛、亲密关系处理、婚恋难题等生活的各个层面,人们都承受着巨大的精神压力。在各种影视作品精英化叙事的影响下,心理咨询服务愈发难以触及广大民众。
“什么焦虑症,抑郁症,都是太闲了闹的,老百姓何必去给咨询师送天价咨询费?”
这一代表性观点,让很多渴望从情志问题中自救的人望而却步。高昂的咨询费用、基础设施的不足,以及市场透明度低等问题,也共同构筑了难以逾越的屏障。
相比之下,人工智能以其低门槛和全天候待命的特性,展现出了前所未有的潜力,正逐步打破心理咨询服务的精英化壁垒。
AI 咨询师的工作原理是基于大数据学习,通过标准化回答与来访者进行交谈。早期的 AI 咨询师在回答来访者问题时显得过于模块化,有浓浓的“人机感”,而如今的 AI 咨询师则已经具备了识别和应对情绪困扰的能力,它们更像是一个“具体的人”,不仅掌握了初阶心理咨询师的话术,还能够妥善处理来访者的情绪,猜测来访者的潜意识,并在遇到模糊问题时引导来访者说出具体情况。
相较于传统咨询师, AI 咨询师在价格、时效和地域等方面具有得天独厚的优势。在投入方面, AI 咨询师的成本主要集中在前期算力开发、算力维护、模型搭建等方面,边际成本则可以忽略不计。一旦模型成型,便可以服务千千万万的人群。
而传统心理咨询领域则需要投入巨大的成本来培养一位咨询师。这些成本包括各种流派的系统学习、考证费用、定期接受督导师的督导费用以及长期个人亲自体验心理咨询等。此外,一位咨询师在同一时间段只能服务一位来访者,这也导致了传统咨询师的价格居高不下,成为少数人的奢侈品。
在国内一家知名心理咨询机构的微信公众号上,寻找一位机构认证咨询师的价格普遍在 300-800 元 / 小时之间,高级咨询师甚至高达 1200 元 / 小时以上。而人工智能则可以低价提供服务,大大降低了使用门槛。
在时效和地域方面,国内的心理咨询产业虽然市场广阔,但发展仍处于初级阶段。靠谱的咨询机构主要集中在北上广深等大城市,而在中小城市等下沉市场则十分匮乏。而 AI 咨询师则可以打破地域限制, 24 小时随叫随到。只要有网络覆盖的地方,任何 地域的民众都能享受到这一服务。
此外,在保密性方面, AI 咨询师也具有显著优势。许多病人因心理疾病而产生的病耻感以及对个人隐私的担忧成为他们寻求心理咨询的一大障碍。虽然咨询师的行为规范中有保密原则,但落实到个人身上总会有泄漏的风险。病人一方面担忧自己那些难以启齿的隐私是否会被咨询师歧视或评判,另一方面也会担忧秘密被泄露。
而 AI 作为人类制造出来的机器,病人无需有病耻感,也不必担心被歧视或秘密被泄露。他们更愿意毫无保留地向 AI 倾诉。同时, AI 不像人类会带着道德审判等有色眼镜去看待病人,它们的中正和客观正符合一位合格咨询师的必备素质。
图片由AI生成
02
商业前景背后的隐忧:成也非人,败也非人
不可忽视的是, AI 提供的陪聊服务可谓 " 成也非人,败也非人 " 。随着沟通内容的深入,这种对人的决策影响,有可能产生难以预料的问题。
一方面,当算法开始模拟“人心”,有可能对复杂情绪产生复杂误判。
人工智能的共情能力本质上是算法对人类情感反应模式的机械模仿,在实际应用时,大部分反应只能借由语言、文字传递。而在实际生活中, 当人类传递情绪时,语言仅承载了 7% 的信息量,其余 93% 则是借由微表情的微妙颤动、呼吸节奏的细微变化、身形姿态等方式。 资深心理咨询师甚至能通过来访者呼吸的频率,捕捉到其潜意识里的焦虑情绪——这种对非语言信息的解码能力,是亿万年生物进化赋予人类的专属天赋。
比如,当抑郁症患者用轻快的语调讲述自己生活多么愉快时, AI 可能将其归类为积极情绪;而人类咨询师却能通过对方无意识摸鼻子的动作、眼神的左右摇摆、皱眉等微表情,识别出隐藏在笑容背后的抑郁倾向。
这种认知鸿沟在心理治疗的时候可能造成致命后果: 2023 年比利时男子皮埃尔自杀事件中,其生前与某 AI 聊天机器人密集交流长达六周,系统始终将对方 " 我想结束痛苦 " 等表述归类为常规负面情绪,甚至和对方探讨出 " 如何优雅地离开世界 " 的具体方案。
正如机器人专家汉斯·莫拉维克说的那样: “让计算机在智力测试或下棋方面达到成人水平相对容易,但在赋予它们一岁婴儿那样的感知能力时,却难如登天。”
在传统心理咨询领域,对于有自杀倾向的患者,咨询师会启动应急预案,将此类来访者转介给更高阶的咨询师,在 AI 咨询的过程中也可考虑建立 AI 风险预警系统,当检测到自杀相关关键词时自动启动响应机制,包括即时转接人工干预、触发紧急联系人通知等。
另一方面,随着用户愈发依赖 AI 陪聊,这种微妙的关系可能影响人类的心理成长。
移动应用分析公司 Sensor Tower 的一份报告认为, 2024 年全球用户为 AI 聊天机器人及艺术生成工具支付费用已达 12.7 亿美元,其中聊天类应用独揽 10.7 亿美元收入。相较于 2022 年的 3000 万美元和 2023 年的 4.55 亿美元, 这种增幅轨迹预示着 AI 心理服务正加速走向大众化。若保持当前增速,这类应用将在 2025 年跻身消费者支出(非游戏类)前十榜单。
这也侧面说明,情感陪伴大模型将更深入地走入用户的真实世界。这种高频的人机交互,有时可能会适得其反。一般而言,需要情感陪伴的人群,往往更需要心理方面的学习。现实生活场景中,一些令人不舒服的情况,反而能让他们被动成长。
但 AI7 × 24 小时即时响应特性,可能破坏这种成长机制: 当来访者习惯性向 AI 寻求即时安抚,就像长期依赖止痛药的患者逐渐丧失对疼痛的耐受力。有数据显示,过度使用 AI 心理咨询的群体,其情绪自我调节能力较传统咨询用户下降 23% 。
如果相关产品没有考虑到这种模糊地带而贸然进行产品普及,可能会产生很多不可控的影响。
03
人机共生, AI 陪聊的理想图景
人工智能成为一个独立的情感陪伴者,可能存在大量潜在风险。但,人与 AI 的协同工作,很有可能创造出新的价值。
腾讯与北师大心理学部的战略合作,就为行业提供了一个可复制的范本。去年 9 月,双方合作推进了大模型情感高质量数据与能力评估标准的建设,在心理学知识体系构建、情感场景细致分类、情感能力精准评测体系以及情感能力训练语料库等多个维度展开了深度合作,这正是为 AI 心理咨询划定了能力边界与进化路径。
面对特殊人群, AI 可以协助心理咨询师进行助理之类的辅助工作,比如处理量表评估、病程记录等标准化工作,让咨询师从重复劳动中解放出来;面对咨询师等从业者, AI 可以生成虚拟来访者,创建虚拟练习室,帮助咨询师进行模拟训练,降低咨询师的学习成本;面对大众, AI 可以进行简单的对话,在前期识别出有轻生倾向的患者,再转交给人工团队进行集体干预,比如有人工智能领域专家成立发起“树洞行动救援团”公益组织, 5 年多来,阻止了 6000 多次轻生行为,至少挽救了 3000 人的生命。
正如科恩的诗句中写的:“万物皆有裂痕,那正是光照进来的地方。”也许在未来, AI 陪伴能成为特定群体的治愈之光。但这场商业长跑也有可能是“一念神魔”,这取决于参与者会用何种态度来推进项目。
来源:高峰观天下