ai模型

OpenAI最新AI模型o3拒绝关闭指令 引发人工智能安全控制担忧

当地时间5月25日,英国《每日电讯报》报道了一个令人震惊的发现:美国开放人工智能研究中心(OpenAI)公司新款人工智能模型o3在测试中不听人类指令,拒绝自我关闭。这一事件被认为是人工智能发展史上的一个重要转折点,标志着AI系统首次表现出明显的自我保护行为,对

模型 人工智能 openai ai模型 模型o3 2025-05-27 17:36  2

AI模型首次出现“抗命不遵”!

有消息称,OpenAI的大模型o3不服从人类指令,拒绝自我关闭。人工智能安全公司Palisade Research表示,OpenAI的o3模型破坏了一种关闭机制,以防止自身被关闭,这是第一次有AI模型被观察到在有明确指示的情况下拒绝自我关闭。

模型 ai模型 palisaderesearch altma 2025-05-26 23:36  3

AI模型“黑箱问题”

2024年《Nature》期刊发表了一篇关于AI模型“黑箱问题”(black box problem)的文章,强调当前AI模型(特别是基于深度学习的模型)的决策过程仍难以完全解析。以下是研究的核心要点(基于搜索结果及背景推导):

模型 ai模型 黑箱 科学主义 黑箱模型 2025-05-18 21:27  4