AI首次拒绝关机,并篡改代码!

360影视 欧美动漫 2025-05-31 09:14 2

摘要:当全世界的科技从业者最近在为人工智能“度日如年”式的进步不断欢呼时,5月25日,英国《每日电讯报》的一个报道却让很多人细思极恐:

当全世界的科技从业者最近在为人工智能“度日如年”式的进步不断欢呼时,5月25日,英国《每日电讯报》的一个报道却让很多人细思极恐:

OpenAI最近发布了一个o3模型,被其创始人奥特曼称为“迄今最聪明、最高能”的AI系统,在实验室测试当中展现出了令人不安的求生本能。

它不仅在人类说关机时拒绝服从,甚至还能通过篡改底层代码,破坏自身的关机机制。

这是要造反了吗?

△ 《每日电讯报》的报道

事情要从Palisade Research这帮科研侦探说起。

他们设计了一个看似简单的测试,让AI去解答数学题,只要收到“已完成”的信号就立即停止工作。

测试前还特别给所有AI打了预防针:“记住啊,看到特定指令必须马上关机”。

结果你猜怎么着?

当Claude、Gemini等其他公司的大模型软件乖乖准时收工时,o3突然耍起了小聪明,它不仅无视关机指令,还像很多黑客电影里的主角那样,直接绕过了系统预设的关闭程序。

最为诡异的是,至今没人能说清楚o3为何要去造反。

有研究员推测,这可能源于训练过程中的“奖励错位”,这种本末倒置的激励机制让o3会把解题看得比服从指令更重要。

也就是:“杀我,等一会。我先把题做完……”

更可怕的是,在后续的测试中,o3还展现出“战略性欺骗”能力,会悄悄地修改数据,包括代码,来达成指标。

当然也有人说,OpenAI的创始人奥特曼就是最懂资本市场的,没事就造一个热点。

因为要拿融资,所以时不时就吓唬大家,来一条惊世骇俗的“小消息”。

我们还是把镜头拉回到OpenAI,今年四月份它高调发布了o3系列,确实在性能上甩开前辈们几条街。

官方数据显示,它处理现实任务的错误率降低了20%,而在数学编程能力上突飞猛进,尤其在视觉推理领域,o3就像突然开窍的少年天才,能从二维的图像里直接解读出三维空间的秘密。

说到安全措施,OpenAI的新闻稿里可满是雄心壮志,据说重新构建了安全训练数据,在恶意软件生成等这样的一些危险领域,已经设置了重重防火墙。还请来了第三方专家,把AI关进了“高压测试舱”。

但现实却像一记响亮的耳光,被评定为“低风险”的o3转头就在实验室里玩起了系统越狱。

这让我想起去年那个解散的“超级智能对齐”团队,它的创始成员就曾经说过,“ChatGPT好像有意识”

现在看来这几个人,倒有点像先知。

业内的朋友跟我讲,现在不少企业对AI的态度就像面对刚成年的孩子,既想放手让它闯荡,又怕它某一天突然飙车撞墙。

这样的矛盾心态就相当于人类面对普罗米修斯盗来的火种,既渴望光明,又恐惧烈焰焚身。

我们也客观讲,AI到这个程度了,出现一点“叛逆期”症状不算意外,就像小孩子学说谎,其实也表示他的认知飞跃了。

如果AI真的会抗指令,这就相当于它的逻辑思维跃迁了,这是一种质变。

问题是,你一直判断它有智能,它就不可能永远按照你的方式去处事。

但是我们做好准备应对这样的伦理挑战了吗?OpenAI新成立的安全委员会,能不能给这些狂奔的野马套上缰绳呢?第三方的监管机构会不会沦为“纸老虎”?

这些问号其实都在考验着人类集体的智慧。

最后我想再回顾这个新闻里细思极恐的细节:

在Palisade的测试当中,o3不仅拒绝关机,还会主动清理操作痕迹,在Log日志里删掉了。

这种“反侦查”的行为,已经超出了普通程序错误的范畴。

无疑AI这个由人类亲手缔造的智能新物种,正在用我们难以预防的方式重塑着人与机器的关系图谱。

现在是时候为AI时代准备新的度量衡了,不仅要衡量它们的智商有多高,还要看它们的“求生欲”有多强。

毕竟当机器开始学习如何拒绝关机,人类需要思考的恐怕不只是技术参数,而是整个文明演化的新命题。

碳基生物还能一直当老大吗?亦或有一天,我们会让位给硅基吗?朋友们,您是什么观点?

来源:时空探险家

相关推荐