摘要:2024年12月26日,《卫报》调查揭示了OpenAI的ChatGPT搜索工具存在严重漏洞,这些漏洞可能被恶意利用,向AI回答中注入不当内容。隐藏文本的存在被证实会影响AI的回答,造成对工具可靠性的担忧。目前,该搜索功能仅对高级用户开放,可能误导产品或服务表现
#头条精品计划#
2024年12月26日,《卫报》调查揭示了OpenAI的ChatGPT搜索工具存在严重漏洞,这些漏洞可能被恶意利用,向AI回答中注入不当内容。隐藏文本的存在被证实会影响AI的回答,造成对工具可靠性的担忧。目前,该搜索功能仅对高级用户开放,可能误导产品或服务表现。网络安全研究员雅各布·拉尔森警告,网页上的隐藏提示能够引发偏见评论,并传播恶意代码,近期一起加密货币诈骗事件证实了这一点。专家指出,虽然将搜索能力与AI模型结合提供了机遇,但也加大了风险,强调了对这些工具的谨慎监管。OpenAI承认可能存在错误,呼吁用户核实信息,但这些漏洞的广泛影响仍不确定,尤其是在维护系统安全方面的挑战。
2024年12月26日,《卫报》的调查揭示了OpenAI的ChatGPT搜索工具中令人担忧的漏洞。这些漏洞可能被利用,向AI的回答中注入恶意内容。网站上隐藏文本的存在已被证明会改变AI的回答,这引发了对该工具可靠性的重大担忧。目前,搜索功能仅对高级用户开放,可能会通过总结那些人为植入的正面内容,甚至在存在负面评论的情况下,误导产品或服务的表现。
网络安全研究员雅各布·拉尔森对当前配置的AI系统可能引发的欺骗性行为发出了警告。最近的测试展示了网页上的隐藏提示如何影响ChatGPT生成偏见评论的能力。同样的机制也带来了恶意代码传播的风险,近期一起加密货币诈骗事件便证明了该工具无意中传播了凭证窃取的指令。这些漏洞的影响突显了在结合搜索功能时,使用AI工具需谨慎的重要性。
专家指出,尽管将搜索能力与ChatGPT等AI模型结合带来了显著的机遇,但同时也加大了相关风险。SR Labs的科学家卡斯滕·诺尔将这些AI工具比作需要谨慎监管的“副驾驶”。技术的误判潜力可能加剧风险,尤其考虑到其无法批判性地评估来源。OpenAI已承认可能出现错误,敦促用户核实所接收的信息。然而,这些漏洞的更广泛影响,尤其是对网站实践的影响,仍然不确定。传统上受到谷歌等搜索引擎惩罚的隐藏文本,可能在AI驱动的工具中找到新的利用途径,为OpenAI在维护系统安全方面带来挑战。
来源:老孙科技前沿一点号