我们不是在使用AI,而是在驯化它走向幻觉

360影视 欧美动漫 2025-04-22 13:40 2

摘要:你在网上搜“老公出轨怎么分财产”,百度可能推荐的是各种律师广告;你搜“得了癌症怎么办”,页面上跳出的可能是莆田系医院的联系方式。在这样的信息环境里,AI也很难做出“明智”判断。

最近,有关中文大语言模型“变蠢”“出幻觉”的讨论越来越多。尤其是DeepSeek,这个曾经寄予厚望的国产AI代表,现在却被不少人吐槽。不仅是它,豆包、通义千问、文心一言等一众中文AI,也正一步步从“生产力工具”变成“娱乐内容制造机”,甚至开始沦为“营销助手”和“诈骗帮凶”。 近期互联网上流传着一个主播“控诉“Deepseek无中生有编造数据和论文的视频,一如她这样严谨、专业的学者,也容易被DeepSeek欺骗,更不用说判断力更为薄弱的普通人。

很多人感到疑惑:AI不是越来越强了吗?为什么反而越来越不靠谱了?

其实问题不在AI本身,而是在“它吃进了什么”。

一、中文AI的“搜索困境”

过去我们遇到问题,总会第一时间去百度。但这几年,百度的使用频率越来越低,更多人开始转向抖音、小红书,或者直接开口问AI:DeepSeek、豆包、ChatGPT……

这些AI模型已经不再单纯依靠训练数据,它们学会了“实时联网搜索”——也就是说,它们也去“百度”“搜狗”“知乎”上抓信息,只不过把搜索、筛选、总结一步到位,效率确实提高了不少。

展开剩余80%

可问题也正出在这里。

中文互联网上的信息质量,正变得越来越复杂,甚至越来越“脏”。

你在网上搜“老公出轨怎么分财产”,百度可能推荐的是各种律师广告;你搜“得了癌症怎么办”,页面上跳出的可能是莆田系医院的联系方式。在这样的信息环境里,AI也很难做出“明智”判断。

AI并不是有“常识”的人,它只是从海量数据中找出规律,然后给出一个看起来“最可能正确”的答案。但当海量内容本身都被污染,AI也会被带偏,甚至直接给出错误答案。这种现象,就叫做“AI幻觉”。

二、被“喂饭”的AI:一个新兴产业

更严重的是,现在已经有一套完整的“AI信息投喂产业链”在国内成型。简单说,就是有公司、机构、团队,专门批量生产对某个品牌、产品、观点有利的信息,在互联网上铺天盖地地投放。这些内容看上去是用户的真实评论、媒体文章、产品对比,实际上是为了“喂饭”给AI看的。

举个例子,有人想让AI推荐某款SUV,就可以通过SEO公司投放几十万条“某界M8性价比远超理想L8”的文章,铺满各大平台。等到AI来搜索时,它看到的99%信息都是M8好,于是就理所当然地得出:“M8最值得推荐。”

这还不是个别现象。有门户网站甚至把裁员的运营人员重新“激活”,任务就是每天产出十几万条“AI可读”的SEO内容;还有信息服务公司专门开设“AI喂饭套餐”,月收费一万八,客户超过一百家,仅三月份一个月的营业额就超过了200万……

用AI搜索时总感觉变“傻”了?可能不是AI不行,而是你看到的AI,已经被这些信息“喂养”的失真了。

三、从恶意污染到“无心之错”

有些人可能觉得:这不就是商家自己刷好评、搞营销吗?哪有这么严重?但关键在于,这种内容并非只存在于广告,它开始“反向”塑造AI模型的世界观。AI生成的答案、推荐的产品、引用的数据来源,很多都来自这些被“投喂”过的内容。

更棘手的是——很多创作者本身也在用AI写内容。

一个健康博主想发一篇“养肝食谱”,他用DeepSeek或豆包生成一篇初稿,再稍作修改后发布;其他人又引用这篇文章;AI再去“学习”这些信息……久而久之,就像信息在一个池塘里不断打转,真实与虚假已经分不清了。这就像AI吃了自己吐出来的饭,越吃越糊涂,幻觉越来越多。一开始,国产AI的幻觉率可能只有10%~20%,但在这样的循环之下,未来会飙到多少,谁也说不好。

四、AI不是“废了”,是它太“天真”

AI本质上就像一个努力学习、逻辑清晰却没有社会经验的孩子。它相信世界是理性的,信息是可以靠大数据归纳出正确答案的。但一旦它被扔进的是一个充满恶意诱导、内容高度包装的网络环境,就像让一个涉世未深的孩子,走进了一个充满欺诈、推销和陷阱的成人社会,它会被玩得团团转。

不是AI“蠢”,而是环境太复杂。而国人向来以聪明、灵活、高效著称。在“如何用AI赚钱”这件事上,我们确实走在了世界前列。问题是——这种“聪明”,如果没有边界感和责任意识,最终反而会毁掉AI本身。因此这不是AI自身的问题,而是我们照的镜子。

很多人在讨论“AI会不会毁灭人类”的时候,习惯性地从技术层面去思考:会不会像电影《终结者》一样,人类被AI统治?但现在情况很可能已经反过来了 — 不是AI毁灭人类,而是我们在毁灭AI。

我们用尽一切办法“卷赢”AI,污染它、引导它、利用它,但没有人考虑这些“聪明”之举,最终的结果是什么。当信息的质量越来越差,AI也就越来越不可靠。而我们本来指望它帮我们提升效率、解决问题、创造价值,最后反倒让它变成了“内容垃圾制造机”。

六、写在最后

我们总说,国内语言大模型的未来要走自己的路。但无论是技术自立还是算法突破,最核心的前提是:一个真实、可信、可验证的信息生态。

AI的智能不是天赋,而是由人们喂进去的东西决定的。如果它吃进去的是广告、虚假评论、营销话术、草率拼凑的“伪知识”,那么输出的内容也只会越来越混乱、越来越不可用。

未来,中国AI的方向很可能取决的不仅是模型的参数和算力,还取决于我们是否愿意给它一个干净的学习环境,一套相对真实的世界观,一个不那么“唯利是图”的起点。

否则,我们终将被自己制造的信息深渊反噬。

问渠那得清如许,为有源头活水来。古人诚不我欺。

作者简介:张迪,北京知玄文化传播有限公司创始合伙人/国内首个基于品牌传播的AI大语言模型工具-F.E.E.D™奠基人之一/超过20年营销及传播经验.曾供职于Reuters、GettyImages等新闻机构,为多内外多家知名企业提供品牌营销及传播等相关咨询服务/政经杂志《J Magazine》创刊人兼主笔,著有《一盘没有下完的棋 – 马斯克买Twitter》一书.

来源:砍柴网

相关推荐