摘要:生成式人工智能的出现,凸显了新闻编辑室制定相关技术使用指南的必要性。在本文中,我们将深入探讨一些已经公布的新闻编辑室指南实例。第一部分,我们将阐述所观察到的一些或显著或不太显著的主题和模式。第二部分,基于这些分析,我们将为新闻机构制定指南提供一些建议。无论你是
在新闻制作中,使用人工智能哪些行为是可行的,哪些是被禁止的呢?以下是美国、欧洲及其他地区 21 家新闻编辑室制定的相关政策和计划。
生成式人工智能的出现,凸显了新闻编辑室制定相关技术使用指南的必要性。在本文中,我们将深入探讨一些已经公布的新闻编辑室指南实例。第一部分,我们将阐述所观察到的一些或显著或不太显著的主题和模式。第二部分,基于这些分析,我们将为新闻机构制定指南提供一些建议。无论你是充满好奇的记者,还是新闻编辑室的负责人,我们希望这份 “指南的指南” 文件,能够概述新闻编辑室中使用生成式人工智能可能需要遵循的规则。
我们分析的指南涵盖了一系列规模较大和部分较小的新闻机构,这些机构大多位于欧洲和美国,也有少数来自世界其他地区。目前这 21 份指南的样本可在此处获取 ;如果您所在的机构发布了关于生成式人工智能的指南,而我们尚未收录,请通过电子邮件与我们联系。随着指南数量的增加,我们会定期更新指南列表以及本文中的分析内容。
我们分析的指南在具体程度上各不相同,名称也有所差异,有的称为 “编辑说明”,有的是 “规程”“原则”,甚至还有 “道义宪章”。一些指南的语气较为严格,明确禁止某些特定用途。其他文件则更像是管理规范,新闻机构在其中承诺承担特定责任,以降低人工智能带来的风险。接下来,我们将结合具体指南中的实例,探讨一些总体模式。
指南中提及了监督,并特意强调了在人工智能使用过程中,人类进行有意义的参与和监督的重要性,包括在发布前对生成内容进行额外编辑和事实核查。新闻机构也反对用机器取代记者的观点,并强调在使用生成式人工智能工具时,人类决策角色的重要性。
瑞典的《每日新闻报》(Aftonbladet)和挪威的《晚邮报》(VG)均隶属于新闻集团施 ibsted,它们的指南有一些明显的相似之处。《每日新闻报》的指南规定:“所有发布的内容都经过了人工审核,并在我们的发布权限范围内。” 而《晚邮报》则表示:“所有生成式人工智能的使用在发布前必须经过人工批准。”
路透社将监督描述为 “努力实现有意义的人类参与,并以公平对待人类的方式开发、部署人工智能产品和使用数据”。同样,《卫报》表示,使用生成式人工智能需要人类监督,其指南中指出,这需要与 “特定益处以及高级编辑的明确许可” 相关联。荷兰新闻通讯社(ANP)在其关于人类监督的指南中也有类似表述,称他们可以使用人工智能或类似系统 “辅助最终编辑,前提是之后有人类进行最终检查”。他们将这个过程描述为 “人 > 机器 > 人”,即机构决策由人类监督。
加拿大重要的新闻公司加拿大广播公司(CBC)表示:“没有人类的直接参与和监督,加拿大广播公司的任何新闻都不会发布或播出。” 荷兰的优质报纸《人民报》(De Volkskrant)称,其内容由人类编辑、记者、摄影师和插画师创作,未经人类批准,以《人民报》名义发布的内容不得使用人工智能生成的内容。《人民报》的上述指南与瑞士新闻机构 Heidi.News 和法国报纸《巴黎人报》(Le Parisien)的表述非常一致。总体而言,它们表示未经事先人类监督,不会发布任何内容。
巴西的数字原生新闻媒体 Nucleo 表示,他们 “绝不会在网站的报道和评论中发布未经人工审核的人工智能生成内容”,也 “不会将人工智能用作出版物的最终编辑或制作人”。总部位于瑞士、在 19 个国家拥有新闻品牌的荣格集团(Ringier)表示:“人工智能工具生成的结果始终需要经过严格审查,信息要通过公司自身的判断和专业知识进行核实、检查和补充。” 同样,德国新闻社(DPA)称,关于使用人工智能的最终决策由人类做出。他们还补充道:“我们尊重人类的自主性和人类决策的首要地位。”
德国记者协会(DJV)将人工智能工具称为 “同事”,他们表示:“在任何情况下,‘人工智能同事’都不允许取代编辑。即使人工智能的使用改变了任务甚至完全消除了某些任务,也不会使新闻编辑室里的人变得多余。”《金融时报》表示,他们的新闻仍将由各自领域最优秀的人类进行报道、撰写和编辑。芬兰通讯社(STT)将监督与决策联系起来:“不要让人工智能替你做决定,而要始终自行评估答案的实用性。”
美国在线媒体公司 Insider 表示,其记者应始终核实事实。他们特别补充道:“不要抄袭!始终核实内容的原创性。目前,最佳的公司做法可能会不断演变,但至少现在,要确保将从 ChatGPT 获得的任何段落通过谷歌搜索和 Grammarly 的抄袭检测工具进行检查。” 他们还呼吁编辑要求记者核实事实。“有必要提高警惕,花时间询问同事每篇报道中的每个事实是如何得知的。”
提及透明度时,往往与要求以受众能够理解的方式对内容进行标注相关联。然而,从这些指南中往往很难清楚了解,这些关于透明度的要求在实际中会如何落实。
《每日新闻报》和《晚邮报》表示,在极少数发布人工智能生成的文本和图像的情况下,会明确标注其由人工智能生成。《晚邮报》的指南特别补充道:“人工智能生成的内容必须清晰标注,且标注方式要让受众能够理解。” 同样,路透社表示,他们将实施人工智能相关做法,“以使我们产品和服务中数据和人工智能的使用能够被理解”。
《卫报》表示,当他们使用生成式人工智能时,会 “向读者公开这一情况”。加拿大广播公司提到要让受众 “不感到意外”,表示他们会对人工智能生成的内容进行标注:“未经充分披露,我们不会向受众使用或展示人工智能生成的内容。” 荷兰新闻通讯社(ANP)、比利时媒体委员会(RVDJ)、德国新闻社(DPA)和德国记者协会(DJV)的指南中也有类似表述,即人工智能生成的内容需要清晰标注。
瑞士媒体集团荣格集团表示,他们的一般规则是,由人工智能生成的内容需要标注。有趣的是,“在仅将人工智能工具用作辅助工具的情况下”,这一要求并非必要,这表明当人们将人工智能作为工作流程的辅助部分使用时,在透明度方面有不同的处理方式。同样,芬兰通讯社表示,新闻报道中使用人工智能的情况必须始终向公众说明:“这既适用于使用该技术辅助制作新闻的情况,也适用于源材料由机器智能创建的新闻。”
生成式人工智能的禁止和允许用途通常会被列出,以指导实际操作,不过有时也会有一些例外情况。对于这些例外,指南中会明确规定透明度、责任和问责制方面的条件。图像生成的使用案例也受到了相当多的关注。
《连线》杂志表示,他们不会发布由人工智能生成文本的报道,除非人工智能生成的角色是整个报道的核心要点。他们还表示 “不会发布由人工智能编辑的文本”,以及 “不会使用人工智能生成的图像来替代库存照片”。其背后的理由是,编辑本质上与确定内容的相关性、原创性和趣味性相关联。尽管《连线》杂志的指南语气较为严格,但他们表示可能会在新闻报道过程中尝试使用人工智能来完成一些任务,比如建议标题、生成创意或撰写简短的社交媒体帖子文案。
Nucleo 列出了一些生成式人工智能的允许用途,比如总结文本以 “在社交网络上提供替代帖子建议”,以及作为 “研究主题和话题” 的工具。例如,《每日新闻报》和《晚邮报》的记者可以 “在工作中使用人工智能技术制作插图、图形和模型”。不过,《晚邮报》的指南补充了一项禁令,即禁止生成逼真的照片,因为 “人工智能生成的内容绝不能破坏新闻摄影的可信度”。
美国在线媒体 Insider 表示,其记者可以使用生成式人工智能来创建 “故事大纲、搜索引擎优化(SEO)标题、文案编辑、生成采访问题、解释概念以及总结旧有报道”。然而,他们强调记者绝不能让人工智能替他们写作。对于使用人工智能生成的图像,他们强调 “需要进行更多讨论,才能决定是否以及如何使用”。
香港的英文报纸《香港自由新闻》(HKFP)限制在任何新闻写作、图像生成或事实核查中使用所有生成式人工智能,因为 “很少有人工智能工具包含适当的来源或归属信息”。有趣的是,《香港自由新闻》确实表示,他们可能会使用内部批准的人工智能 “进行语法 / 拼写检查、改写 / 总结团队已撰写的现有文本,以及辅助翻译、转录或研究”。同样,荷兰的优质报纸《人民报》表示,其编辑不会发布由人工智能生成的新闻作品。
加拿大广播公司表示,他们不会使用人工智能来重现任何加拿大广播公司记者或名人的声音或形象,“除非是为了展示这项技术的工作原理”。有趣的是,他们将这一例外与两个条件相关联,即(1)“事先获得我们标准办公室的批准”,以及(2)“获得被‘重现’个人的批准”。此外,他们不会将该技术用于面部识别或语音匹配形式的调查性新闻报道,也不会使用它为他们试图保护身份的机密消息来源生成声音。他们将继续采用受众熟悉的做法,如语音调制、图像模糊处理和使用剪影。
瑞士新闻机构 Heidi.News 表示,他们只会 “将合成图像用于说明目的,而非信息目的,以免混淆现实世界的事件”。他们还补充说,除非是出于教育目的且相关图像已经公开,否则不会发布任何可能被误认为是照片的合成图像。
法国报纸《巴黎人报》表示,他们保留将人工智能用于生成文本和图像以作说明用途的权利。他们将生成式人工智能的特殊使用与始终保持透明度这一事实相关联:“我们将确保向读者明确说明来源。” 此外,他们将人工智能的使用描述为一种补充。“新闻工作者可以像使用搜索引擎一样使用这些工具,但他们必须始终回到自己的信息源,以确保信息的来源可靠。”《金融时报》强调,他们不会发布由人工智能生成的逼真照片,但会探索使用人工智能增强的视觉内容(信息图表、图表、照片),并且在使用时会向读者明确说明。
芬兰通讯社将禁止使用生成式人工智能的情况直接与其局限性相关联。“芬兰通讯社不会使用人工智能进行数据挖掘。人工智能使用的来源往往不明确,这使得其在编辑工作中的使用存在问题。” 他们还表示,信息来源的可靠性和信息的核实仍然至关重要。
指南中经常提到问责制和责任,这与发布的内容以及准确性、公平性、原创性和透明度等价值观相关。同时,也强调了对数据和人工智能产品使用实施问责措施的重要性,以及使用技术可靠且安全的人工智能系统以降低风险的重要性。
瑞典的热门报纸《每日新闻报》表示,他们对 “网站上发布的所有内容负责,包括使用人工智能或其他技术制作或基于这些技术的内容,且这些内容均在我们的发布权限范围内”。路透社表示,他们将 “为我们对数据的使用以及我们的人工智能产品和服务实施并维持适当的问责措施”。德国新闻社强调,他们只会使用 “技术可靠且安全的人工智能,以将错误和滥用的风险降至最低”。法国报纸《巴黎人报》表示,他们希望保护自己免受 “任何错误或版权侵权的风险,同时也支持艺术家、摄影师和插画师的工作”。
德国记者协会强调,新闻机构应对其内容负责,并且当涉及人工智能时,编辑部门应为新闻内容建立规范的接受和批准流程。《金融时报》表示,他们坚信 “在这个技术快速创新的时代,他们制作最高标准新闻的使命变得更加重要”。他们还补充道:“《金融时报》有更大的责任保持透明、报道事实并追求真相。”
美国在线媒体公司 Insider 表示,他们希望受众相信他们对每篇报道的准确性、公平性、原创性和质量负责。他们表示,其记者对报道中的每一个字的准确性、公平性、原创性和质量负责。
在保护消息来源以及谨慎向外部平台提供敏感信息方面,经常会提到隐私和保密问题。此外,指南强调应谨慎使用机密或未发布的内容作为生成式人工智能工具的输入。
《每日新闻报》表示,他们 “保护消息来源,不会向 ChatGPT 等外部平台提供敏感或专有信息”,《晚邮报》也以略有不同的措辞表达了类似观点:“记者最初只能向人工智能服务分享已获准立即在《晚邮报》平台上发布的材料。” 路透社强调,他们将 “在数据使用以及数据和人工智能产品与服务的设计、开发和部署的全过程中,优先考虑安全和隐私”。加拿大广播公司表示,“无论出于何种原因,他们都不会将机密或未发布的内容输入到生成式人工智能工具中”。Mediahuis 表示,他们应遵守隐私法,并在使用个人信息前按要求获得用户同意。
瑞士媒体集团荣格集团表示,其员工 “不得将新闻消息来源、员工、客户或商业伙伴或其他自然人的机密信息、商业秘密或个人数据输入到人工智能工具中”。对于代码开发,荣格集团的指南规定,只有在代码 “既不构成商业秘密,也不属于第三方” 的情况下,才可以输入到生成式人工智能系统中。
有趣的是,我们分析的大多数指南并未区分生成式人工智能服务(如 OpenAI)与使用由新闻机构自身运营的计算机托管的生成式人工智能系统(比如使用开源模型的情况)。然而,需要注意的是,隐私和保密风险更多地与使用其他组织托管的生成式人工智能服务相关,而非使用生成式人工智能本身。
指南中提到的谨慎试验,通常与保持好奇心和批判性思维相关联,同时也强调了创新的潜力。此外,还强调要检查人工智能生成内容的真实性,因为人们关注到了错误信息的风险以及 “真相被歪曲” 的问题。
《晚邮报》的主要规则是,其记者必须 “以对待其他信息来源的同样方式,即带着开放的好奇心和谨慎态度,对待借助人工智能(生成式人工智能)创建的文本、视频、图像、声音和其他内容”。加拿大广播公司表示,他们在新闻工作中绝不会仅仅依赖人工智能生成的研究:“我们总是使用多个信息源来确认事实。” 荷兰新闻通讯社表示,其编辑团队的每一位成员都应该 “以充满好奇、善于探究、批判性和开放的态度看待人工智能及相关系统”。他们还补充说,会继续以开放的心态积极追求创新。芬兰通讯社表示,记者有机会时应该探索人工智能。他们是最早开始以语言模型形式试验生成式人工智能的新闻发布机构之一,并表示试验对于揭示这些模型的潜力和局限性仍然至关重要。
英国报纸《金融时报》在编辑信中表示,他们将接受人工智能为读者和客户提供服务。有趣的是,他们还强调,《金融时报》有必要在新闻编辑室中成立一个团队,能够负责任地试验人工智能。他们还补充道:“每一项技术都开辟了令人兴奋的新领域,必须以负责任的态度去探索。但正如近期的历史所表明的,在兴奋之余,必须对错误信息的风险和真相被歪曲的问题保持谨慎。” 最后,《金融时报》表示,新闻编辑室对人工智能的所有试验都将记录在内部登记册中,包括尽可能记录使用该工具的第三方供应商的信息。
在一些情况下,指南文件还表达了新闻机构部署生成式人工智能的战略目标。提到的动机包括提高原创性、质量甚至速度的愿望,同时有时也反映了不取代记者以及维护独立性 / 公正性等核心价值观的意愿。
《金融时报》表示,人工智能有潜力 “提高他们的生产力,解放记者和编辑的时间,使他们能够专注于创作和报道原创内容”。《卫报》表示,他们也只会在有助于创作和传播原创新闻的情况下,从编辑角度使用生成式人工智能工具。此外,他们表示在使用生成式人工智能时,会关注 “能够提高我们工作质量的情况”。比利时新闻公司 Mediahuis 表示,人工智能应该提升他们的新闻工作。他们说,他们的目标是 “为我们的受众提高新闻质量”。Insider 强调,其记者可以,甚至应该使用人工智能来使工作更出色,“但这仍然是你的工作”,他们表示,“你要对其负责。你要对我们的读者和观众负责”。荷兰新闻通讯社表示,他们希望保持公正和独立,并且在使用生成式人工智能时应该谨慎。
德国新闻社表示,他们将人工智能用于各种目的,并且对更多地使用人工智能持开放态度。他们补充说,人工智能将帮助他们把工作做得更好、更快。荷兰的优质报纸《人民报》将人工智能视为一种工具,“绝不是可以取代记者工作的系统”,Heidi.News 和《巴黎人报》也表达了这种不打算用机器取代记者的观点。瑞士新闻机构 Heidi.News 表示,人工智能系统应被视为工具,并且在追求客观时,其记者 “不应将这些工具视为信息来源”。
指南中很少提及培训,然而,当提到培训时,培训课程大多与降低生成式人工智能的风险以及对受众负责和保持透明相关联。
Mediahuis 表示,应为负责人工智能决策的人员制定培训和资质要求。他们将这与明确人工智能开发和使用的责任归属联系起来。德国记者协会强调,使用人工智能必须成为记者培训和继续教育的一个重要组成部分。他们呼吁媒体公司开设适当的培训课程,包括人工智能滥用方面的内容。英国报纸《金融时报》表示,他们将为记者提供关于使用生成式人工智能进行新闻线索挖掘的培训,培训将以大师班的形式进行。
《卫报》明确提及了生成式人工智能中的偏见问题,并表示他们将 “防范生成式工具及其基础训练数据中所包含的偏见风险”。
来源:方盒子电视