摘要:技术进步给人们的生活带来便利,也可能把人们带进沟里。那些AI制造的虚假信息,借助算法推荐形成“信息茧房”,极易形成逻辑闭环,对使用者有极强的蒙蔽性。
“AI幻觉就是AI在一本正经地胡说八道。”
“这些AI编造的内容能以假乱真到什么地步呢?就是我本人看到甚至都会愣神。”
“AI只是一个参考,真正做判断的还应该是人类,决策的底层逻辑不能跟着AI走。”
“AI幻觉会始终存在,它能给人类添乱,也能倒逼人类去思考,究竟什么是真实,什么是虚假。”
你是否有这样的经历,不知道吃什么的时候借助AI工具查餐厅,按导航找过去,结果发现餐厅并不存在。
或者借助AI工具写论文,面对长长的参考文献,一核实发现其中有编造的。
如果有,那么恭喜你,成功被AI幻觉所欺骗。
所谓AI幻觉,就是向AI提问之后,获得了丰富详尽的答案,看上去逻辑缜密,可查证之后发现,它是虚构的产物。
技术进步给人们的生活带来便利,也可能把人们带进沟里。那些AI制造的虚假信息,借助算法推荐形成“信息茧房”,极易形成逻辑闭环,对使用者有极强的蒙蔽性。
AI幻觉这一互联网时代的副作用,正在越来越多地影响人们的日常生活。
李逵还是李鬼,傻傻分不清楚
传统媒体讲究“无一字无出处”,常以采访的形式获取信息,保证报道的专业性和独特性。到了互联网时代,营销号为了增强权威感,同样会盯上一些意见领袖,抓取他们的名字,编造一些评论和金句,有了AI,这种杜撰就更容易了。
作为经常就影视创作和产业发声的人物,编剧宋方金最近在网上发现,他火出圈了,不仅常在影视评论文章中出场,还跨界参与了各类事件的点评。当然,这些内容均通过Ai编造,他本人毫不知情。
宋方金最开始一笑了之,但很快,他笑不出来了。
有读书博主给宋方金的小说写了书评,他一读才发现里面会出现一些小说里根本没有的情节,明显是出于杜撰。本以为遇见读者可以交流,谁知碰上的是赛博假人。
“这些AI编造的内容能以假乱真到什么地步呢?就是我本人看到甚至都会愣神,想一想自己到底说没说过类似的话。”
资深策划人谭飞也碰到了类似问题。
今年春节档期间,谭飞在微博上经常提到《哪吒2》这部电影,结果没多久他就读到了许多文章假他之名对《哪吒2》的各种点评。
“印象特深的是有一篇文章说我建议推出‘申公豹国际版手办’,很有想法,但这真不是我说的。”
这类AI幻觉还无伤大雅,可是一旦对作品、演员有实质性批评,涉及到名誉时,就很容易引战。
AI 幻觉还会带来更严重的问题。
比如在搜索资料时,AI会引用不存在的文献,甚至还能把不存在的文献也编造出来,造成信息污染。
近期谭飞在写一篇文章时就差点中招,文章涉及“甲亢哥”中国行的路线,AI把他没去过的城市也编了进去。如果不是他一直盯着这个热点,很难察觉其中有问题,这是典型的以假乱真。
对于新闻学来讲,这是一个巨大的冲击。互联网上的一切信息都有被污染的可能,除了查找原始文献、走访当事人之外,获取真相反而成了一件有门槛的事情。
用户希望搜索李逵,AI提供的却是自行编造的李鬼。这些“李鬼”,早年间是偷懒的媒体人不经采访自行罗织,现在则是输入当事人的名字胡乱生成,或者干脆依托AI自行“发挥”。本质上,这都是侵权行为。
AI时代难辨真伪,难度越来越大
谣言是一种古老的存在。
过去网上也流传过像鲁迅语录、张爱玲语录之类的谣言,熟悉这些作家的读者很容易分辨。可现在面对AI制造的海量信息,甚至连“被署名”的本人都拿不准自己是否说过这句话。互联网上的信息如何查证真伪?这就涉及到一系列的新闻伦理问题。
目前在海外读书的作家李尚龙,正在积极投身AI行业。身处海外行业一线,他对于AI时代辨别真伪这一问题有着深入思考。
“目前我们还能凭借自身经验分辨真假,随着技术的发展,AI幻觉进化到专家级别,分辨真伪的难度就更大了。”
在他看来,公众对AI存在两个比较大的误区。
一是AI中立论。
很多人以为AI是中立的,实际上它有自己的倾向性,这一倾向性和人类喂给它的“语料”有关。“为什么AI会抓取宋方金、谭飞这些有知名度的人去生成内容,因为他们高频发声,而且有影响力,AI抓取之后自然就会生成署名他们的虚假内容。”
过去,虚假内容的出口是搜索引擎,现在变成了AI。这样的特点导致现在的互联网水军拼命在网上向AI输出有倾向性的内容,其结果可想而知。
二是AI万能论。
AI取代人工是近年来常听到的话题,仿佛AI无所不能,大有取代一切之势。
可AI的局限性也很大。人类运用AI是希望获取便捷,可AI幻觉的存在,导致使用者被迫要去核实信息的真实性,反而加重了负担。
AI本身分辨不了事实,从它的技术原理上看AI幻觉不是AI撒谎。它依靠的是概率,通过抓取海量数据进行预测,只要生成内容流畅合理即可。
“AI幻觉就是AI在一本正经地胡说八道。”李尚龙说,不要过度神话AI,它只是一个参考,真正做判断的还应该是人类,决策的底层逻辑不能跟着AI走。
宋方金笑言,AI幻觉带来的也并非全是负面效应,对有些行业就可能带来新的生机,比如纸质图书馆。
在AI幻觉这种现象泛滥后,网络信息一定会被大量污染。但前AI时代的纸质典籍,由于经过出版社三审三校的流程,可靠性更高,反而因此而利好。
宋方金还有一种畅想,比如未来随着技术进步,AI如果能够模仿人的思维逻辑,那么迟早有一天它能编出一句模仿对象绝对会说出来的话。这就属于创造性生成,可以在艺术、写作方面打开新世界的大门。
AI幻觉泛滥,我们该何去何从?
技术前进的速度突飞猛进,人类该如何适应越来越普遍的AI幻觉?
AI幻觉在文娱领域生成的内容多数令人啼笑皆非,可进入社会新闻方面却能引发严重的负面效果。
前不久一篇关于“80后死亡率突破5.2%”的文章广为流传,里面强调数据来自于第七次全国人口普查的“权威数据”,很多自媒体借题发挥,助长了传播。实际上文章内容破绽百出,被专家认定是AI生成的虚假信息。
在海外,AI幻觉造成损害的例子也不鲜见。
2023年,美国律师Steven Schwartz在法庭文件中引用了ChatGPT生成的虚构法律案例,导致法律文件被驳回。这些案例包括不存在的判例和虚假法律条文,严重损害了辩护的专业性和司法公信力。
蒙眼狂奔,野蛮生长,这就是AI运用面临的最大问题。规则和现实不同步,个人纠错或追责成本又太高。想改善这样的局面,远不是个人力所能及的事情。
目前AI幻觉的泛滥,有技术本身的局限性,也有人为作恶的推波助澜。
营销号为了传播,习惯了无中生有,没有道德负担。有了AI之后,连信息源都可以编造,这是一种错误新闻操作方法的延伸,放大了行业内一直以来无法解决的顽症。
要保持做新闻的初心,求证、采访都不能少。谭飞回忆起自己做记者的时候,做新闻要采访双方当事人,后来简化成只采访一方也能做,而现在很多从业者连采访都不做了,实在有违行业规范。越是AI幻觉横行,就越不能丢掉新闻原则和从业者的素养。
据李尚龙介绍,面对AI带来的诸多问题,海外有保守派也有激进派。保守派主张限制AI过快发展,而激进派主张大步前进,两派之间互相制衡。相对主流的一个共识是决定权不能交给AI,它的定位就应该是工具。
目前欧盟就推出了《人工智能法》,用来规避相关的风险,这点值得国内借鉴。前不久,国家互联网信息办公室、工业和信息化部、公安部、国家广播电视总局联合发布《人工智能生成合成内容标识办法》(以下简称《办法》),《办法》将在今年9月1日起施行,是国内在这一领域踏出的坚实一步。
一方面,立法需要追赶AI发展的脚步,另一方面还要平衡监管和创新之间的关系。对媒体(哪怕是自媒体)从业者来说,主动造假始终是遭人唾弃的,被AI幻觉蒙骗也不是光彩的事。对受众来说,AI信息泛滥的时代,慎思明辨尤其重要。
在可预见的未来,AI幻觉会始终存在,它能给人类添乱,也能倒逼人类去思考,究竟什么是真实,什么是虚假。当科学问题和哲学问题高位纠缠,我们的处境将空前艰难。
【文/忠犬七公】
来源:影视独舌