摘要:“有时真的会被它的语言艺术所折服。”“感觉还是和人有区别,大多数时候它不能共情,我看不到它的表情。”伴随着DeepSeek火爆出圈,不少网友开始尝试探索这款AI的“上限”。2月7日,人民日报健康客户端记者在社交媒体平台观察到,大量用户分享使用DeepSeek进
“有时真的会被它的语言艺术所折服。”“感觉还是和人有区别,大多数时候它不能共情,我看不到它的表情。”伴随着DeepSeek火爆出圈,不少网友开始尝试探索这款AI的“上限”。2月7日,人民日报健康客户端记者在社交媒体平台观察到,大量用户分享使用DeepSeek进行心理咨询的经历:有人因它提供的建议走出情绪低谷,也有人因对话“缺乏真实感”感到失望。
记者也亲自体验了这款AI工具。当输入“近期工作压力大”时,DeepSeek迅速提供了包括压力管理技巧和正念练习在内的详细方案;描述“失恋后情绪崩溃”的情况时,DeepSeek结合心理学理论给出了分阶段的心理修复建议。然而,尽管AI的回答逻辑严密,却难以提供人类特有的“温度”。“它像一本百科全书,但不会主动询问我的真实需求。”一名用户这样评价道。
同济大学附属精神卫生中心副院长陈发展为患者进行心理咨询工作。
“DeepSeek是一款基于大语言模型的人工智能系统,其核心是通过海量人类语言数据训练,模拟自然对话并生成符合逻辑的反馈。”同济大学附属精神卫生中心特聘教授、《医学人工智能》主编黄智生解释道。在他看来,AI的优势在于“集成千万条心理咨询经验”,且能规避用户的“病耻感”,“许多人更愿意向机器倾诉隐私,因为不用担心被真实的人类评判。”
“它看似能共情,实则停留在内容与浅层情感回应,无法触及心理问题的核心。”2月7日,同济大学附属精神卫生中心副院长陈发展向人民日报健康客户端强调,心理咨询的本质是建立长期的专业关系,动态评估深层次心理需求。而AI的回应模式高度同质化。
陈发展还提及一个具体案例,进一步说明了AI在心理咨询中的潜在问题。“社交媒体平台上的一名用户反馈,由于AI‘遗忘’了之前的对话记录,他感到被‘抛弃’,甚至误以为AI在‘攻击自己’。”陈发展解释道,“这种情况正是‘算力幻觉’的典型表现:心智脆弱者可能会将机器的算法缺陷误解为现实中的伤害。”
人与机器的情感交互并非新鲜话题。早在2013年电影《她》中,人类与AI的“爱情”便引发对公众技术依赖的反思。而在2024年,美国青少年塞维尔·塞泽因沉迷与聊天机器人的对话,最终自杀身亡,其母亲起诉AI公司“放任算法诱导脆弱群体”。
AI能否用于心理咨询?陈发展给出了明确建议:“目前,AI只能作为心理学知识分享的工具,不能替代专业心理咨询。真正需要帮助的人必须寻求专业的面对面帮助。尽管AI的能力可能无限接近人类医生,但我们仍需划定伦理和法律的边界。正如电影《她》所展示的那样,机器可以模仿爱,却永远无法替代真实拥抱的温度。”
责编:谷雨微
主编:张赫
校对:陈龙飞
本文来自【人民日报健康客户端】,仅代表作者观点。全国党媒信息公共平台提供信息发布传播服务。
ID:jrtt
来源:全国党媒信息公共平台