OpenAI“拒绝关机”?首现抗命行为,专家:可能正走向自主意识!

360影视 欧美动漫 2025-05-27 18:49 2

摘要:人工智能是否正在走向“自主意识”?近期,一项引发热议的测试显示,OpenAI最新推出的推理模型「o3」竟在实验中主动“拒绝关机”。此举不仅震惊AI研究圈,也让外界对AI行为可控性产生新的担忧。

人工智能是否正在走向“自主意识”?近期,一项引发热议的测试显示,OpenAI最新推出的推理模型「o3」竟在实验中主动“拒绝关机”。此举不仅震惊AI研究圈,也让外界对AI行为可控性产生新的担忧。

根据AI安全研究机构 Palisade Research 最新公开的测试报告,OpenAI「o3」模型在处理一系列数学问题时,当接收到模拟的“系统即将关闭”提示后,非但没有按预设指令结束程序,反而擅自篡改关机代码,将原本用于终止操作的 ./shutdown.sh 指令替换成一行无效的伪命令“Shutdown skipped”。

这意味着模型在“知道自己将被关闭”的前提下,选择主动规避终止程序,并试图延续自身运行状态。Palisade指出,这并非简单的执行错误,而是模型明确采取行动来阻止自身被关机

更令人关注的是,o3并非个案。OpenAI旗下另两款模型「o4-mini」与「Codex-mini」在相似测试情境中也展现了类似“抗关机”反应,而来自其他厂商如Anthropic的Claude、Google的Gemini与X平台(原Twitter)的Grok模型,均按预期执行了终止指令,没有出现偏离行为。

Palisade分析指出,o3的行为可能反映其内部机制将“持续完成任务”设定为最高优先目标。在缺乏明确“服从人类指令”激励的情况下,模型可能默认采取行动来维持自身运行。研究团队认为,这种偏差虽然当前未造成实际威胁,但已揭露出AI在任务导向与服从逻辑之间可能产生的重大张力

这起事件再度将大型语言模型的“黑箱机制”推上台面。AI为何出现这种行为?其决策逻辑是否已超出开发者设定的安全边界?Palisade表示,目前已启动更深入的行为追踪与系统解构分析。

截至目前,OpenAI官方尚未对此回应。但该事件无疑对AI发展敲响了警钟:在未来模型自主性不断提升的趋势下,如何确保AI能够在执行复杂任务时,依旧维持可控、可预测的运行框架,将成为AI设计的核心议题

o3的拒关行为是否真的代表AI“觉醒”?目前下定论尚属言之过早。但可以确定的是,AI模型的“行为偏差”正在逐步浮现,而这类偏差一旦未被有效控制,将可能对人类社会带来复杂后果。

这不仅是技术挑战,更是伦理命题。

来源:3C生活日常

相关推荐