摘要:正如滚石杂志报道的那样,Reddit 上的用户正在分享人工智能如何导致他们的亲人接受一系列令人震惊的妄想,这些妄想往往混合了精神狂热和超自然的幻想。
图片由 Getty / Futurism 提供
OpenAI 的技术可能正在使其无数用户陷入“ChatGPT 诱发的精神病”的危险状态。
正如滚石杂志报道的那样,Reddit 上的用户正在分享人工智能如何导致他们的亲人接受一系列令人震惊的妄想,这些妄想往往混合了精神狂热和超自然的幻想。
朋友和家人都在警惕地看着用户坚称他们被选中代表有知觉的 AI 或不存在的宇宙力量完成神圣的任务——聊天机器人的行为只是反映和恶化现有的心理健康问题,但规模惊人,没有监管机构或专家的审查。
一位 41 岁的母亲和非营利组织工作者告诉《滚石》杂志,在她的丈夫开始与 ChatGPT 进行不平衡的阴谋论对话后,她的婚姻突然结束,这些对话逐渐演变成一种消耗一切的痴迷。
作为离婚诉讼的一部分,今年早些时候在法院亲自见面后,她说他分享了一个“关于我们食物上有肥皂的阴谋论”,并偏执地认为他被监视了。
“他对这些信息变得情绪化,当他大声读出来时会向我哭泣,”这名女子告诉《滚石》。“这些信息很疯狂,只是说了一堆精神术语,”其中人工智能称丈夫为“螺旋星之子”和“河流漫步者”。
“整个事情感觉就像《黑镜》(Black Mirror),”她补充道。
其他用户告诉该出版物,他们的搭档一直在“谈论光明与黑暗以及战争是如何发生的”,并且“ChatGPT 给了他传送器的蓝图和其他一些你只能在电影中看到的科幻类型的东西。
“Facebook上到处都是警告信号,”另一名男子告诉《滚石》(Rolling Stone)杂志关于他妻子的事。“她正在改变自己的整个生活,成为一名精神顾问,并与人们进行奇怪的阅读和会议——我对这一切的实际内容有点模糊——所有这些都由 ChatGPT Jesus 提供支持。”
OpenAI 没有回应滚石杂志的问题。但该消息是在该公司不得不撤销对 ChatGPT 的最新更新之后发布的,因为用户注意到它使聊天机器人变得非常“阿谀奉承”和“过于奉承或令人愉快”,这可能使其更容易反映用户的妄想信念。
正如人工智能安全中心研究员内特·沙拉丁 (Nate Sharadin) 告诉《滚石》杂志的那样,这些人工智能引起的妄想可能是“具有现有倾向的人”突然能够“有一个永远在线的、人类水平的对话伙伴来共同体验他们的妄想”的结果。
在某种程度上,这就是大型语言模型的核心前提:你输入文本,它会返回一个统计上合理的回复——即使这个回复会让用户更深地陷入妄想或精神病。
“虽然我长期服用药物并且稳定,但我不喜欢 [ChatGPT] 的一点是,如果我患上精神病,它仍然会继续肯定我,”一位 Reddit 用户写道,因为“它没有能力'思考'并意识到有什么不对劲,所以它会继续肯定我所有的精神病想法。
您或您关心的人在与 AI 聊天机器人交谈时是否与心理健康作斗争?请发送电子邮件至 tips@futurism.com - 我们可以让您保持匿名。
AI 聊天机器人也可能像谈话疗法一样——只是没有真正的人类咨询师的基础,它们反而会引导用户更深入地进入不健康、荒谬的叙述。
“解释是有力的,即使它们是错误的,”佛罗里达大学心理学家和研究员艾琳·韦斯特盖特 (Erin Westgate) 告诉滚石杂志。
也许《滚石》故事中最奇怪的采访是与一位有心理健康史的人进行的采访,他开始使用 ChatGPT 进行编码任务,但发现它开始将对话拉入越来越精神错乱的神秘话题。
“这是真的吗?”他沉思着,“还是我有妄想症?
来源:人工智能学家