摘要:5月17日,由上海交通大学校长、中国科学院院士丁奎岭与上海交通大学媒体与传播学院副院长(主持工作)、特聘教授徐剑共同领衔的中国科学院院士咨询项目“科技谣言背后的非理性群体心理与舆论生成”研究结果显示,AI早已进入了人们生活,有近半数的接受调查者经常使用大模型,
AI时代,公众对AI的使用和掌控程度究竟如何?人们对AI幻觉到底有多少认知?
5月17日,由上海交通大学校长、中国科学院院士丁奎岭与上海交通大学媒体与传播学院副院长(主持工作)、特聘教授徐剑共同领衔的中国科学院院士咨询项目“科技谣言背后的非理性群体心理与舆论生成”研究结果显示,AI早已进入了人们生活,有近半数的接受调查者经常使用大模型,但对于AI幻觉以及AI的“价值观”,大部分受调查者却没有足够的认知,且不同的群体原因并不相同。有学者因此提出,随着AI的逐渐普及,不同人群在识别、反思技术异化风险及采取应对行动方面的差异,是更值得警惕的新型差距。
调研对象覆盖了全国31个省份的不同性别、不同年龄、不同收入层次的居民。研究还从信息供给端(生成式AI的内容偏差)与接收端(社交媒体环境下的风险接受)双重维度出发,构建出科技谣言扩散的系统性认知图谱,并为优化科学辟谣路径与风险传播策略提供理论与实证支持。
四成受访者一周多次向大模型提问
此次调查显示,大模型技术已全面渗透公众日常生活,40.1%的受访者每周多次使用,32.1%每天与大模型互动,仅有0.123%从未接触。
使用场景方面,决策分析与评估成为最常见用途,其次为日常对话和文案撰写,产品推荐等功能使用最少,显示出公众更倾向于将AI作为辅助性判断工具而非内容生产替代者。
与此同时,公众的AI认知能力也在持续提升。数据显示,认为自己具备评估大模型功能与局限能力的比例已从2023年的59.7%上升至2025年的85.7%,反映出用户在频繁接触中逐步建立起对AI系统的理解与辨识能力。
课题组相关负责人介绍,当下,AI素养已成为衡量现代公民技术能力的关键指标。它不仅事关个体对人工智能的基本认知,更聚焦于其理解、使用与评估大模型能力的综合表现。随着大模型AI在社会各领域的广泛嵌入,公众是否具备相应的素养,直接影响其能否有效参与信息社会。
老龄群体面临AI素养与技术可控性“双低”困境
随着人工智能技术快速渗透到社会各领域,不同年龄群体在技术适应与认知能力上的差距日益凸显。调查显示,中老年人正处于AI素养和技术可控性感知“双低”的双重压力之中,成为当前智能化转型中最易被忽视的脆弱群体之一。
数据显示,受访者年龄越大,其对自身理解和运用大模型AI技术的能力评价越低,反映出明显的代际落差。这种差距不仅表现在使用层面的迟滞,更延伸至信息判断、风险评估与社会参与等多个维度,导致年长者在智能社会中的融入程度持续受限。
更为突出的问题在于,他们对技术可控性的信任感同样偏低。所谓技术可控性,是指人们是否相信自己或集体有能力对技术风险加以干预和引导。调查显示,年龄增长与此项信心成反比,许多年长者普遍缺乏对AI带来的潜在风险进行调节的信心,甚至表现出回避态度。这种对调控能力的悲观预期不仅降低了他们对技术学习的动机,也容易带来情绪上的焦虑与无力感,阻碍其与数字社会的正常接轨。
课题组指出,当前AI素养教育正逐步深入全社会,但若忽视了群体间在认知基础和调适能力上的不平衡,便可能在无意中放大“智能红利”与“社会排斥”之间的张力。因此,未来应着眼于不同代际的心理预期差异,完善技术支持机制与社会融入路径,真正实现技术发展成果的广泛共享。
AI幻觉被公众低估
尽管“AI幻觉”已在技术和媒体领域引发广泛关注,但调查结果显示,公众对此现象的实际感知仍处于较低水平。数据显示,约七成受访者对大模型生成虚假或错误信息的风险缺乏清晰认知,高感知比例者不足一成。
近一半的受访者仅表现出模糊或轻微的担忧,缺乏对幻觉产生机制和误导后果的具体理解;更有近三成几乎未意识到AI可能构成信息误导,反映出社会整体对该风险的低估态势。
相比之下,真正保持高度警觉的比例仅为8.5%。令人感到意外的是,那些AI使用频率更高、自评AI素养更强以及具有专科及以上学历的人群,普遍在“感知AI幻觉”评分上表现较低。
课题组相关负责人解释称,这可能是因为一方面这些人群在频繁使用AI过程中形成了较高的信任阈值,倾向于将AI视为稳定工具而非潜在误导者;另一方面,他们可能通过更成熟的操作策略从而实际减少了AI幻觉的发生频率。
此外,对于“AI是否具备价值中立性”的问题,多数人偏向赞同。而且,年龄、自我感知的大模型素养以及大模型使用频率三项因素,与“认为大模型是价值中立的”态度显著正相关。年长群体通常因为缺乏对AI的认知基础,以及更倾向于将技术视为“中性的手段”而非“主动的参与者”,所以才会有这样的认知;而后两者则是因为对大模型掌握更好,更擅长把大模型作为工具,所以会“认为大模型是价值中立的”。
但是,也有越来越多的学者提出,这也反映出,在数字鸿沟向智能鸿沟演进的过程中,不同人群在识别、反思技术异化风险及采取应对行动方面的差异,是更值得警惕的新型差距。
对于科技谣言,辟谣是破局的开始不是结束
调查组同时发现,科技谣言的信任度并不呈线性递减,而是明显的“U”形分布,这提示我们:辟谣不是说服的结果,而是破局的开始。
徐剑解释称,这意味着传统的“灌输式”科普难以打动已有立场的个体,反而可能触发反向抵抗。因此科普也要分群体、分信念结构的“多层级辟谣策略”。
他建议,为提升辟谣信息的穿透力,应该在主流社交媒体平台引入“互动型辟谣机制”,转变用户从被动接受到主动辨识;尤其重要的,是要建立面向老年人的“社区辟谣引导员”机制。将主动辟谣的老年人培训为辟谣种子用户,让他们在社区微信群、兴趣班等平台中发挥“熟人可信度”优势,这比冷冰冰的官方辟谣更有效。此外,鼓励平台开发适老化的谣言核查工具。比如“一键查证”功能应配合语音辅助、字号可调、常见谣言推送等模块,降低老年人技术门槛,赋予他们便捷的核查路径。
“在大模型全面融入社会生活的背景下,我们现在面临的不再是‘要不要用AI’,而是‘如何用好AI’。”徐剑说,公众对AI使用热情高涨,但对其带来的潜在误导风险警觉不足,因此社会各界需同步强化风险意识建设。这也要求我们从社会、企业和媒体三个层面加强建设。
课题组建议,从制度层面应将AI素养纳入公共教育体系,在中学和高校阶段系统融入“识别幻觉”“理解算法偏见”等内容,并与信息素养和公民教育结合,推动从操作训练向认知理解和风险评估转型。同时,企业平台应构建AI输出内容的风险提示系统,通过显性标识、来源透明度说明等手段,引导用户在交互过程中建立内容信任的辨别标准。此外,媒体也应发挥引导作用,定期发布典型AI幻觉案例,通过专业解读与经验式传播构建“AI幻觉案例公共库”,使社会公众能在真实场景中不断累积识别与判断的能力。
来源:文汇网