如何不让使用ChatGPT变得烦人

360影视 日韩动漫 2025-05-04 21:30 2

摘要:近年来,人工智能生成内容的使用显著增加,专业人士常在提交文件时注明其使用了如ChatGPT等工具。这种现象导致生成的文本往往未经充分编辑,缺乏上下文,增加了接收者的认知负担。随着这些工具的普及,确保有效和负责任的使用显得尤为重要。编辑Erica Greene指

近年来,人工智能生成内容的使用显著增加,专业人士常在提交文件时注明其使用了如ChatGPT等工具。这种现象导致生成的文本往往未经充分编辑,缺乏上下文,增加了接收者的认知负担。随着这些工具的普及,确保有效和负责任的使用显得尤为重要。编辑Erica Greene指出,生产力应在于加速执行,而非外包思考。为此,组织需建立明确的使用指南,确保人工智能辅助的工作不对团队造成额外负担。建议包括避免仅转发生成内容、确保信息准确性,以及提供必要的背景信息,以提升输出质量。最终,关注的应是工作质量,而非使用的工具,确保生成内容符合公司标准。

近年来,我们观察到专业人士提交创意或文件进行审阅的趋势日益增加,常常附带着诸如“这是来自ChatGPT的一些想法”或“这是我在ChatGPT帮助下撰写的草稿”等备注。随之而来的内容通常未经编辑或仅进行了轻微修改,导致文本过于通用,缺乏重要的上下文。此外,还有一些文本似乎是由人工智能生成的,但并未明确承认。这种情况将改善输出的责任转移给接收者,实际上将他们置于匆忙准备内容的编辑角色。

例如,我们的一位同事最近被一位专业联系人请求审阅一份战略文件。请求附带的备注写道:“我有这个想法,想听听你的看法,”随后披露:“人工智能非常有帮助。”最终的文件是一份约1200字的备忘录,显然是在生成式人工智能的协助下撰写的。我们花了大约半个小时分析它并撰写详细的回复。不幸的是,我们的朋友从未回复,让我们感到沮丧,因为我们被要求参与一项他们自己并未投入大量时间的工作。

这种经历并非独特,它突显了与生成式人工智能工具采用相关的日益严峻的挑战。这些技术促进了内容的快速生成,随后可以传递给他人以获取反馈或编辑。这种转变有效地将认知负担从原始创作者转移到了接收者,令人担忧的是所产生工作的整体质量。可以理解,这一趋势为何出现,因为我们仍在探索在专业环境中使用生成式人工智能的适当规范。鉴于这些工具的优势通常被表述为节省时间,个人可能会感到诱惑而忽视对人工智能生成输出的必要审查。

Machines on Paper的编辑Erica Greene最近表达了与我们经历相呼应的观点:“生产力并不在于外包思考工作,而在于加速执行速度。”此外,必须认识到,一个人节省的时间往往意味着另一个人在纠正劣质工作上花费了更多时间。挑战在于确保有效和负责任地使用人工智能工具,而不是让它们成为削弱协作努力质量的拐杖。

随着生成式人工智能工具越来越多地融入专业环境,建立更清晰的负责任使用指南显得尤为重要。组织需要制定规范,以防止人工智能辅助的工作对团队施加不必要的负担。一个简单的框架是根据工作质量来评估个人,而不论他们使用了何种工具。关注点不应在于某人是否使用了ChatGPT或其他人工智能工具,而应在于最终输出是否符合公司的标准。如果工作不达标,问题在于质量,而非生产方法。

如果你的团队仍在制定人工智能使用规范,以下是一些值得考虑的最佳实践:首先,避免充当人工智能生成内容的中介。任何涉及生成式人工智能的任务仍需个人努力。例如,如果你正在与同事进行头脑风暴,不要仅仅转发ChatGPT或Claude生成的20个想法。相反,选择最佳建议,并提供每个建议的背景和你的想法。其次,确保事实准确性。生成式人工智能工具以产生不准确信息而闻名,因此如果在人工智能出现之前你不愿意分享一份有错误的文件,现在也应适用同样的标准。最后,提供人工智能工具可能缺乏的必要背景。你对公司和特定项目的了解是生成式人工智能工具所不具备的。将这些背景融入你的提示中,并编辑人工智能的输出,以确保其符合你组织的需求。

来源:老孙科技前沿

相关推荐