摘要:当今的数字化浪潮,AI已如潮水般涌入我们生活的各个角落。从日常资讯阅读,到学术研究探索,从商业决策辅助,到艺术创作启发,它似乎无所不在,无所不能。
当今的数字化浪潮,AI已如潮水般涌入我们生活的各个角落。从日常资讯阅读,到学术研究探索,从商业决策辅助,到艺术创作启发,它似乎无所不在,无所不能。
然而,在这看似闪耀的科技光环之下,却隐藏着一个令人不安的事实——AI是会“撒谎”的。
当我们兴致勃勃地向AI询问中国电影市场的情况时,它能从数据分析到业内观点,看似专业且有条理地娓娓道来。
以Deep Seek为例,它曾一本正经地引述万达影视总经理曾茂军的观点,可现实是曾茂军从未担任过万达影视总经理,而是万达电影的前总裁兼董事长。
不仅如此,光线总裁王长田、中影集团董事长傅若清、北电教授吴冠平的那些看似权威的言论,竟也全是AI凭空编造。这不禁让人脊背发凉,若是有人在这些不熟悉的领域盲目采信,后果不堪设想。
在学术研究领域,此类情况更是屡见不鲜:有网友向Deep Seek提问后,对回答存疑,要求列出参考文献,结果得到的全是假文献,甚至连题目到期刊号都编造得像模像样。
AI为何会如此堂而皇之地“编谎话”?
其实,这并非某个特定AI的个别行为,当下主流的AI文字大模型,如Deep Seek、豆包、Kimi,甚至大名鼎鼎的ChatGPT,都存在类似问题,这种现象被称为AI幻觉。
AI产生幻觉的根源,与它独特的“思考方式”紧密相连。多数人误把AI当作精准的网络搜索工具,以为输入问题就能获取网上的正确答案。
但实际上,大多数AI产品更像是在与我们玩一场概率接龙游戏。
它们在接收到问题后,并非像人类一样经过深入理解与理性思考,而是通过对海量数据的压缩处理,基于数据间的统计关系和规律,去推测最有可能出现的内容,本质上是在猜测用户期望的答案。
比如,当询问“猫吃什么”,AI并不真正理解“猫”和“吃”的概念内涵,只是在其记忆的知识体系里,“猫粮”与“猫吃”频繁共现,出现概率高,便输出“猫吃猫粮”的答案。
然而,若AI在训练过程中接触到诸如科幻故事里“猫吃空间宝石”这类信息,由于它无法分辨信息的真实性与合理性,就可能将其纳入答案范围。
当提问方式模糊、有歧义或者问题过于开放时,AI为了给出看似合理的回答,往往会依赖自身的泛化能力,编造一些信息来完善逻辑,比如虚构人名、事件等细节。
像被问到“为什么大家公认我比吴彦祖帅”这样超出知识范畴的问题时,Deep Seek便编造出一个“外貌焦虑研究所”及相关数据来回应,看似合理,实则毫无根据。
不同AI的幻觉率存在差异。有机构测试显示,Deep Seek R1的幻觉率超过14%,高于市面上许多大模型。
这与R1采用的思维链技术有关,该技术通过强化学习和分布推理机制,虽显著提升了模型在复杂数理问题上的准确性,但在处理文科和开放类问题时,思维容易过度发散。
这把双刃剑,一方面赋予了Deep Seek出色的文采,如对“读书的意义”给出充满诗意的回答;另一方面,也使得它在面对简单或开放问题时,容易陷入过度思考,把问题复杂化,进而增加出现幻觉的可能性。
AI幻觉的危害也不容小觑。如今,AI已广泛渗透于金融、法律、新闻、政务等各行各业,许多地方政府部门部署了Deep Seek,并要求基层公务员学习使用。
倘若使用者对AI缺乏了解,不知其会输出错误信息,一旦这些错误信息被滥用,经地方媒体未经核实便转载传播,将引发难以估量的后果。
例如,在金融领域,错误的投资建议可能导致投资者遭受巨大经济损失;在法律层面,错误的法律解读可能影响司法公正。
为降低AI幻觉带来的风险,专业人士提出了诸多方法。
如调整置信度阈值,让AI对输出结果的确定性进行评估;接入外部数据库,为AI提供更准确、全面的信息支撑;运用RAG技术实施校准输出,确保内容的可靠性;安装检验AI幻觉的插件,方便用户快速识别虚假内容。
对于普通用户而言,也有简单有效的防范策略。
首先,务必对AI输出结果反复验证。若内容存疑,要求AI解释结论得出的依据,并与其他AI对比验证,同时自己上网搜索官方信源进行核实。
其次,使用大模型时尽量开启联网搜索功能,弥补训练数据的滞后性,避免AI因信息缺失而胡编乱造。
再者,向AI提问时,尽量避免抽象、开放式问题,若必须提问,则要为AI提供充足信息和明确限定条件,复杂问题可拆解为多个小问题逐步询问。
最后,连续提问新问题时,记得点击开启新对话按钮,防止AI误解问题逻辑关系。
但需要明确的是,任何技术手段都无法百分百杜绝AI幻觉。更重要的是,我们要端正使用AI的心态,摒弃对技术的过度迷信与崇拜,始终保持质疑精神。
当下,部分人过度依赖AI,甚至用其算命、完全代做工作和论文,这本质是思维惰性的体现,也是AI幻觉背后最大的隐患。
尤其是具有社会影响力的行业从业者,如大V、学者、医生、公务员等,更应对AI技术保持必要的质疑心。
以网络信息传播为例,若大V未经验证便采用AI编造的内容并广泛传播,可能引发连锁反应,让虚假信息迭代进化,最终混淆视听,污染互联网信息池,破坏社会认知和信任体系。
AI作为划时代的产物,其未来走向取决于我们当下的选择。它既可能是开启科技造福人类美好时代的钥匙,也可能成为将人类困于数据囚笼的枷锁。
在这场与AI共舞的旅程中,我们应时刻保持清醒,让AI成为助力我们探索世界的得力工具,而非主宰我们思维的绝对权威。
正如Deep Seek对AI幻觉和过度依赖问题所回应的:人类的灵性不应被困于硅基囚笼,在算法浪潮中,我们要始终做手握罗盘的航海者,让探索求知的光芒照亮前行之路。
来源:贾老师说的不假