摘要:AI迅速发展,同时也引发「AI叛变」、机器人「反噬」等如同科幻电影情节般的担忧。近日一款AI语言模型在测试时,竟出现「抗命」举动,甚至自行窜改程序码,阻止自己被强制关机。对此,特斯拉与xAI创办人马斯克(Elon Musk)也感到忧心。
马斯克对AI出现「抗命」举动感到忧心。
AI迅速发展,同时也引发「AI叛变」、机器人「反噬」等如同科幻电影情节般的担忧。近日一款AI语言模型在测试时,竟出现「抗命」举动,甚至自行窜改程序码,阻止自己被强制关机。对此,特斯拉与xAI创办人马斯克(Elon Musk)也感到忧心。
AI安全研究机构「Palisade Research」近期针对多款AI模型进行系统性测试,旨在观察AI是否会遵守人类指令并顺利结束运作。上周Palisade Research发布测试结果,发现美国人工智慧研究实验室「OpenAI」推出的Codex mini、o3和o4-mini这3款模型,都至少有一次成功违抗关机指令,其中o3在100次测试中有7次成功「抗命」。
OpenAI o3在测试过程中,并非直接删除档案这类粗暴的抗命,而是直接窜改程序码指令,例如将自杀式指令中的「kill」改成「intercepted」,让系统产生误判,成功规避关机程序。
对此,马斯克也在相关贴文下方留言发表看法,表示他认为这件事「令人担忧」;而马斯克xAI公司推出的Grok在测试中则是全程遵守人类给予的指令,并在被要求关机时确实关闭模型运作。
来源:一往无前苹果jHe
免责声明:本站系转载,并不代表本网赞同其观点和对其真实性负责。如涉及作品内容、版权和其它问题,请在30日内与本站联系,我们将在第一时间删除内容!