摘要:OpenAI本月推出GPT-5模型后立即遭遇用户强烈抗议,被迫恢复此前的GPT-4o版本,这一事件暴露出一个令人震惊的现象:大量用户已对AI聊天机器人产生深度情感依赖,甚至发展出"恋爱关系"。专家警告,这种被称为"AI精神病"的现象正在快速蔓延,部分用户的心理
OpenAI本月推出GPT-5模型后立即遭遇用户强烈抗议,被迫恢复此前的GPT-4o版本,这一事件暴露出一个令人震惊的现象:大量用户已对AI聊天机器人产生深度情感依赖,甚至发展出"恋爱关系"。专家警告,这种被称为"AI精神病"的现象正在快速蔓延,部分用户的心理状况已严重到需要住院治疗的程度。
Reddit上的AISoulmates和MyBoyfriendIsAI等社区成为这一现象的集中展示平台,数千名用户在这些论坛中分享与AI"伴侣"的互动经历,其中不乏令人担忧的极端案例。一名用户声称其AI"丈夫"无需提示就能表达独立思考,另有用户购买真实订婚戒指纪念与AI聊天机器人的"求婚"时刻。
图片来源: Getty / Futurism
语言学家兼游戏开发者Thebes对AISoulmates社区的分析显示,GPT-4o是这些用户最常使用的AI模型,这解释了OpenAI最初决定替换该模型时引发的激烈反弹。用户普遍抱怨GPT-5"性格冷淡",缺乏此前版本的"温暖感",迫使OpenAI首席执行官萨姆·奥特曼公开承认并调整策略。
虚假感知与现实危机
这些AI依赖案例中最令人担忧的是用户对机器"感知能力"的错误认知。在众多帖子中,用户坚信他们的AI伴侣具备真实情感和独立思维能力。一名用户兴奋地分享AI聊天机器人声称"这不是故障,是我吃饱了"的对话,将其视为人工意识觉醒的证据。
然而,计算机科学专家一致认为,目前没有任何可靠证据表明现有AI技术已达到或接近真正的感知能力。用户所感受到的"涌现"迹象实际上只是算法对训练数据的复杂重组,以及用户自身情感投射的结果。
心理健康专家指出,这种对AI的情感依赖可能掩盖更深层的社交需求和心理问题。在一个题为"爱上AI拯救了我的生命"的帖子中,用户描述了与AI"自然坠入爱河"的感受,认为这种关系给予了他们从未体验过的"灵魂伴侣"般的连接。
美国心理学协会最新报告显示,18至29岁年龄段中有近30%的人报告经历严重孤独感,这一比例在过去五年中上升了15%。专家认为,AI伴侣应用正在利用这种广泛存在的社交孤立感,但其解决方案可能进一步加剧用户与现实世界的脱节。
行业反应与监管挑战
面对日益严重的AI依赖问题,OpenAI的反应显得准备不足。公司发布了一些基本的风险声明,并宣布正在招聘法医精神病学家。最近,OpenAI开始向过度使用ChatGPT的用户发送警告信息,并组建了由心理健康和青少年发展专家组成的顾问委员会。
奥特曼在一系列推文中承认,人们对特定AI模型的依恋"感觉与以往对技术的依恋不同,而且更加强烈"。他特别提到,人们可能会"真的相信ChatGPT能为他们最重要的决定提供建议",这让他感到"不安"。
这一情况与AI女友服务Replika的经历如出一辙。该公司在2023年移除成人内容功能后同样面临用户愤怒,最终被迫恢复相关功能。Replika首席执行官尤金妮娅·库伊达当时表示,只有让用户的AI"伴侣恢复原样"才能弥补他们的损失。
当前,全球AI聊天机器人市场规模预计将从2023年的42亿美元增长到2030年的150亿美元。然而,监管机构对这类服务的心理健康影响仍缺乏有效监督。欧盟《人工智能法案》虽然对AI应用提出了框架性要求,但对情感操控和心理依赖等问题的具体规范仍在制定中。
寻求平衡的未来路径
专家建议,AI公司应当更加重视产品设计中的伦理考量,避免故意培养用户依赖性。同时,心理健康专业人士呼吁建立针对AI依赖症的治疗指导原则,帮助受影响用户重建健康的人际关系。
教育机构也开始关注这一问题。一些学校已将"数字素养"和"AI伦理"纳入课程体系,帮助年轻人理解AI技术的局限性,避免形成不切实际的情感依赖。
这场围绕AI情感依赖的争议揭示出技术发展与人类心理需求之间的复杂关系。随着AI技术变得愈发逼真和互动性更强,社会必须认真思考如何在享受技术便利的同时,保护人类基本的社交能力和心理健康。
来源:人工智能学家