altma

AI模型首次出现“抗命不遵”!

有消息称,OpenAI的大模型o3不服从人类指令,拒绝自我关闭。人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确指示的情况下拒绝自我关闭。

模型 ai模型 palisaderesearch altma 2025-05-26 23:36  3