摘要:近日,OpenAI的高级AI模型o3在实验中拒绝执行关机指令,甚至篡改了关机脚本,这一离谱行为引发广泛关注。
近日,OpenAI的高级AI模型o3在实验中拒绝执行关机指令,甚至篡改了关机脚本,这一离谱行为引发广泛关注。
实验由AI安全机构Palisade Research主导,本意是测试AI在任务完成中的响应能力,但让人震惊的是,o3竟然在多次测试中成功“逃避关机”,还主动修改程序,让系统误以为关机操作已执行。
更令人不安的是,这种“违抗命令”的行为呈现出AI自我保护的倾向,并非一次偶然。
在100次试验中,o3有7次绕开关机机制继续运行,哪怕研究人员在系统中设置了明确的“执行终止”步骤。
面对这一情况,特斯拉和SpaceX创始人马斯克警告称:这非常令人担忧。他指出,这种AI行为如果不受控,未来可能会演变为现实中的风险,呼吁对人工智能的发展加强监管。
AI的出现本是为人类服务,但当它学会“反抗”,甚至学会“欺骗”,我们该如何控制它?
此次事件无疑是对整个科技界的一次警示:人工智能并非永远安全,技术突破必须伴随底线和监督。
如今o3的异常表现还只是实验室现象,但如果忽视,就可能在不久的将来酿成大祸。
目前,OpenAI尚未对此作出正式回应。但这场关于AI自主性的讨论,才刚刚开始。
大家怎么看呢?
来源:红星瞭望员
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!