摘要:正在召开的全国两会上,代表委员热议AI话题。有的代表委员建议要积极拥抱技术进步带来的红利,也有代表委员建议理性应对可能出现的风险。全国人大代表刘庆峰认为,应构建安全可信的数据标签体系,提升生成内容可靠性;全国政协委员周鸿祎认为,在对准确性要求高的领域,可以利用
正在召开的全国两会上,代表委员热议AI话题。有的代表委员建议要积极拥抱技术进步带来的红利,也有代表委员建议理性应对可能出现的风险。全国人大代表刘庆峰认为,应构建安全可信的数据标签体系,提升生成内容可靠性;全国政协委员周鸿祎认为,在对准确性要求高的领域,可以利用技术手段对AI幻觉予以矫正。
从查文献、找资料到文档排版、数据处理,AI在学习工作等方面的介入不断深入。人工智能的智慧给生活带来极大便捷,以至于很多人“遇事不决问AI”。AI固然“无所不知、无所不答”,但令人担忧的是,AI已经学会说谎,产生AI幻觉。大语言模型编造它认为是真实存在以及看起来合理或可信的信息,以至于有时是一本正经地胡说八道。前不久,知名科普作家河森堡让ChatGPT介绍文物“青铜利簋”,结果,ChatGPT将这件西周文物的来历,编造成了商王帝乙祭祀父亲帝丁所铸,还煞有介事地标明了文献来源。在生成学术论文材料时,DeepSeek也会生成不存在的内容,或指向无关的论文。
无中生有、胡编乱造、真假不分,还能伪装成专业可靠的样子。出现以假乱真的幻觉,跟AI的运行逻辑有关。没被“投喂”足够的数据资料、拿不准正确答案,AI也能“急中生智”,推测答案。这一特质让AI显得有“想象力”和“创造力”,但更可能给用户带来麻烦。 比如在医学等专业门槛较高的领域中,如果患者把AI当大夫,轻信幻觉诊疗方案,不仅会影响诊疗进程,还可能危及健康和生命。AI生成的虚假信息传播到网络上,不仅混淆公众视听、扰乱网络生态,还让信息网络真假难辨、削弱社会信任。中国互联网络信息中心发布的《生成式人工智能应用发展报告(2024)》显示,我国生成式人工智能产品的用户规模已达2.49亿人,占整体人口的17.7%。庞大的用户量意味着,AI的小幻觉,可能迷惑很多人。
人工智能,到底是来自人的智慧;面对AI幻觉,人得保持清醒。近年来,AI大模型科技公司已经在尝试用更多正确、清晰的信息来训练AI;用另一个AI或者数据库来帮忙检查,确保答案的准确性等。对于AI幻觉,既要适度包容,也要督促企业“用技术打败技术”,建立安全、动态的纠错机制。比如刘庆峰代表建议,构建安全可信数据标签体系,建立安全可信、动态更新的信源和数据知识库,研发AIGC幻觉治理技术和平台,定期清理幻觉数据等,既有针对性,也有可行性。
紧跟AI脚步,不能让AI幻觉成为绊脚石;减小AI幻觉带来的误导,用户也不能放弃“深度求索”。人工智能并非全知全能,切不可迷信,更不可神化。找AI帮忙,需留个心眼。毕竟人工智能的答案不是拿来就能用的“金点子”,别把决策权一股脑丢给AI。把使用AI的主动权掌握在自己手里,多思考、多追问,才不会被AI幻觉“迷”倒。
来源:中国蓝新闻