摘要:佐治亚理工学院(Gatech)的副教授Rosa Arriaga正在研究如何用LLM模仿人类行为。Rosa认为LLM在人格测试中采用与人类相似的策略,表明了它们作为人类行为映射工具的潜力。但她补充道:「重要的是,LLM并不完美,实际上,众所周知它们会产生幻觉或歪
佐治亚理工学院(Gatech)的副教授Rosa Arriaga正在研究如何用LLM模仿人类行为。Rosa认为LLM在人格测试中采用与人类相似的策略,表明了它们作为人类行为映射工具的潜力。但她补充道:「重要的是,LLM并不完美,实际上,众所周知它们会产生幻觉或歪曲事实。」Eichstaedt指出,这项研究引发了关于LLM应用方式,及其对用户影响和操纵的思考。在进化史上,直到不久之前,唯一能交谈的还是人类。而现在,AI改变了这一局面。Eichstaedt认为,「我们不能再像社交媒体那样,在没有从心理学或社会学角度考量的情况下,就盲目将AI应用于各个领域。」AI是否应该试图讨好与之互动的人呢?一方面,AI的「讨好」行为可能会让用户感到愉悦,增强互动体验;另一方面,过度的「讨好」可能会掩盖问题的本质,甚至误导用户。当AI变得过于有魅力和说服力,我们确实应该保持警惕。毕竟,人们需要的是能够提供客观、准确信息的智能助手,而非被其操控思想。参考资料:https://www.wired.com/story/chatbots-like-the-rest-of-us-just-want-to-be-loved/原标题:《AI也有人格面具,竟会讨好人类?大模型的「小心思」正在影响人类判断》 来源:科学生活前线
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!