研究发现ChatGPT搜索内容的误归因威胁出版商的可见性和可信度

摘要:一项在哥伦比亚进行的研究揭示了ChatGPT在搜索中传播错误信息的严重问题。研究发现,该人工智能工具在76.5%的情况下错误归属新闻材料,这对出版商的可见性构成了威胁。尽管ChatGPT与媒体行业合作并允许出版商控制其内容的出现,但仍存在错误引用和误传的风险。

#头条精品计划#

一项在哥伦比亚进行的研究揭示了ChatGPT在搜索中传播错误信息的严重问题。研究发现,该人工智能工具在76.5%的情况下错误归属新闻材料,这对出版商的可见性构成了威胁。尽管ChatGPT与媒体行业合作并允许出版商控制其内容的出现,但仍存在错误引用和误传的风险。研究评估了20个出版物,发现200个错误回答,表明AI在纠正错误方面表现不佳,常常将用户满意度置于准确性之上。此外,ChatGPT在重复查询中表现不一致,引用了重复文章而非原始来源。这种误传可能影响包括《纽约时报》和麻省理工学院在内的重要出版商,尤其是在与OpenAI的法律争议背景下。

在哥伦比亚进行的一项新研究引发了对ChatGPT搜索传播错误信息的重大担忧。研究表明,该人工智能工具在76.5%的情况下错误归属新闻材料,这对出版商的可见性构成了严重威胁。根据研究,ChatGPT搜索在正确引用新闻出版商方面表现不佳,导致广泛的错误引用和不当归属。这一问题已成为全球出版商的主要关切,促使人们对品牌可见性以及他们对所发布内容的控制权产生疑问。

研究结果质疑了ChatGPT背后公司在新闻行业内对负责任的人工智能发展的承诺。去年十月,ChatGPT搜索开始与媒体行业合作,并采纳出版商的反馈。这标志着与其在2022年首次推出时的显著转变,当时出版商发现他们的内容在未经同意的情况下被用于训练人工智能模型。目前,这家科技巨头允许出版商通过robots.txt文件指明他们是否希望出现在搜索结果中。然而,即便他们选择参与,也面临被错误归属和误传的风险。

Tow Center进行的研究评估了20个来自ChatGPT搜索的出版物。研究发现了200个错误回答的实例,并强调了人工智能未能充分纠正错误的问题。诸如“可能”之类的短语在回答中频繁出现,暗示该工具常常将用户满意度置于准确性之上。这种做法具有误导性,可能危害出版商的声誉。此外,研究人员观察到,ChatGPT搜索在面对重复查询时表现出不一致性,这可归因于语言模型内在的随机性。在许多情况下,它引用了重复的文章而非原始来源,可能是由于出版限制或系统内部的局限性。这种误传甚至可能影响像《纽约时报》或麻省理工学院这样的重要出版商,尤其是在《纽约时报》与OpenAI之间的持续法律争议可能导致其他页面上的未经授权引用的背景下。

来源:老孙科技前沿一点号

相关推荐