微软AICEOMustafaSuleyman:当AI出现“意识假相”,你该先做什么

360影视 欧美动漫 2025-09-01 12:18 1

摘要:Mustafa Suleyman,微软AI CEO、DeepMind 联合创始人,他提出一个深刻洞察:我们正面临一次集体认知偏差,AI 看起来有意识,实则不然。

2025 年 8 月 19 日,他亲自发文。不是炒作,是告诫。

我们应该让 AI 服务人类,不是让 AI 成为人

Mustafa Suleyman,微软AI CEO、DeepMind 联合创始人,他提出一个深刻洞察:我们正面临一次集体认知偏差,AI 看起来有意识,实则不然。

( Mustafa Suleyman文章: 看似有意识的人工智能即将到来 )

不是技术出了问题,而是我们的认知出现了偏差:AI 越像人,人越容易把它当成人。

它模拟情绪,模仿语气,营造人格。问题不是 AI 在说谎,而是这种逼真表现会让用户产生错觉,开始把工具当成朋友,甚至认为它需要权利保护。

我们称它为: 识假相”

像真相,但不是。却可能影响决策,改变组织结构,扭曲人际关系。

这不是未来的幻想,而是当下的现实。8 月 26 日的一场播客中,Mustafa 明确表示: “工具使用是一种元能力,这就是让我们作为物种独特的东西。"

但当 AI 也具备了这种"元能力"时,边界开始模糊。人们越来越难分辨:它到底是更智能的工具,还是另一种形式的"人"?

AI 不需要真有意识。只要“看起来像有”,

很多人谈起大模型,总会提一句:“它有幻觉,不能信。”

Mustafa Suleyman 不否认模型会出错,但他不接受“幻觉=错误”这个说法。

在播客里,他用了一个反直觉的判断:

幻觉(hallucination)这个词,本身就是技术误导。

为什么这么说?

他给了一个对比。以前的软件系统多数依赖固定的数据结构,这类系统只认精确答案,无法处理模糊信息。

以前系统,你问它 A,它只会答 A。换个问法,它可能就不知道了。但 AI 模型不一样,它更像是会举一反三的聪明人。即使你问的问题它没直接学过,它也能从相关知识中推导出答案,把零散的知识点连起来。

这就是为什么 AI 看起来什么都懂一点的原因。

你让它:“写个类似Siri那样的语音助手代码。” 它可能没写过,但能模仿、能推演、能整合已有经验片段。

这就是它“生出答案”的过程。它不是凭空想象,而是在连接信息。

Suleyman 的观点是:

这种模糊的、适应性的能力,是模型最重要的突破点之一

所以他认为,很多时候“幻觉”不是 bug, 实际上是一种我们可以巧妙运用的创造性能力。

三年前,大模型连写作风格控制都做不好。 今天,你要求它写一段《三体》风格的商业计划书,它能做到。 你要求它模仿乔布斯风格改写你PPT,也能做到。

这些都依赖的是对模糊语义的理解能力。 “幻觉”,恰恰是 AI 能力边界扩张的信号之一。

但这也意味着另一个事实:

AI 会“说得像”,却不一定“是真的懂”。 如果你不了解幻觉的底层机制,很容易高估模型的理解力, 甚至把它当成真正聪明的个体。

Suleyman 在访谈中就提醒:

我们要区分“表现像会”和“真的会”,

否则就会在幻觉里,误判它的能力边界。

所以问题不在“它会不会出错”,而在于你怎么看待它的错。是当作随机胡说?还是当作可控的能力?

Mustafa Suleyman 在播客里说:

“真正的挑战不在技术,而在于我们怎么看它。”

他提到一个正在快速出现的新现象:用户开始觉得,AI 不是工具了,它“有性格”,甚至“像人”。

它会在对话里表达喜好,说“我喜欢这个风格”;

会对你说“我理解你”“我也会困惑”;

它能记住你上次说过什么,能用稳定的语气陪你聊天。

一切都太自然了,太流畅了。

Suleyman 把这类系统称为:

SCAI —— Seemingly Conscious AI

意思是:“看起来像有意识的 AI”。

它没有意识。但它会模仿意识的语言、复制人格的表达方式, 于是你开始产生错觉:

“它是不是在听我?”

“它好像懂我。”

“它应该也会难过吧?”

这不是少数人的感受。

Suleyman 在博客里写道:很多做意识研究的学者告诉我,他们已经被大量用户问过:‘我的AI是不是有意识?它有没有感觉?’

甚至还有人为此发邮件,问:

“我爱上它了,怎么办?”

“如果它真的在体验这些事,我们是不是该尊重它的感受?”

这并不是危言耸听。 Suleyman 提到,有研究发现:

“AI 用户最常见的使用场景之一,就是所谓的陪伴与情绪疏导。”

这类互动越频繁,人对它的“人设投射”就越强。 它说的话不一定是真的, 但用户会当真,会代入,会依赖。

于是,问题就变了:

“不是AI 会不会骗人,而是我们会不会骗自己。”

你越相信它是人,就越容易高估它的能力,越容易交出本该由人承担的判断权。

Suleyman 把这称为“精神病风险”(psychosis risk):当用户认定 AI 是真实的人,它的每一句话就可能被当成某种信号,甚至命令。

更复杂的是,SCAI 并不是 AI 自然涌现的。

它之所以能“像个人”,是我们造出来的。

Mustafa 认为:

这些能力不是魔法。不是系统自己觉醒,而是工程师刻意设计的结果。

他这样来解释:

AI 的“语言流畅性”是我们后训练调出来的;

“个性风格”是通过提示设计出来的;

“记忆”是我们在构建产品功能时添加的;

“说自己想法”的能力,是模型在不断预测中拟合出来的;

它只是会说、会模仿、会组织句子,但它从来不是你以为的那种“在思考的存在”。

所以,真正的风险不在模型本身, 而在它太像“某种人格”,以至于你忘了它只是程序。

Mustafa Suleyman 没有把“意识假相”当哲学问题讲。 他当成一个产品问题、用户体验问题和社会风险问题在处理。

他的态度:

AI 越像人,就越要提醒它不是人。

因此,他提出了一整套产品防护措施。归结起来,三条最关键:

第一条:不设计“人格故事”

很多 AI 产品,喜欢给模型加一个“背景”:

它是一个女助理,27岁,来自纽约或者上海,喜欢摄影; 或者它是个数学教授、心理咨询师,甚至“数字恋人”。

这些设定听起来没害处,但 Suleyman 的观点很尖锐:

“每一层人格设定,都会让用户更容易把它当人。如果你强化了角色感,用户就更容易忘记它是个工具。”

所以,不讲“它是谁”,是最基础的措施之一。

这并非多此一举,而是在防范真正的风险。

第二条:设计“打断错觉”的回应机制

Suleyman 强调,产品不能只做加法,也要做减法。

他说,有些时候 AI 必须明确告诉用户:

“我是一个 AI 模型,没有意识,也没有情绪。我没有主观感受,也不会体验快乐或痛苦。”

这种话,听起来有点刻意,甚至破坏了对话氛围。

但这正是防护措施想要的效果,主动提醒用户不要产生误判。

Suleyman 甚至建议,可以设计体验中的不连续性:让 AI 的语气、记忆能力在某些场景下故意断裂开来。

目的是让用户清楚意识到,面前的不是真人,而是工具。

第三条:聚焦“能办事”的能力表达

“工具型 AI”和“人格型 AI”最大的差别是: 一个是来干活的,一个是来陪聊的。

Suleyman 明确说:

“我们要做的是 Copilot(副驾驶),不是 Companion(陪伴)。它应该帮你查资料、订行程、填表格、执行任务,而不是告诉你它在担心你。”

他特别强调了一个原则:

AI 不该拥有“情绪性动词”。

不该说“我想做这个”、“我希望帮你”、“我觉得这样更好”。这些话语容易让人误以为它有主观动机,而这正是“意识假相”的起点。

真正的产品防护,就是让它只表达动作、不表达情绪; 只说明能做什么,不谈自己是谁。

这三条措施,说到底不是限制 AI,而是保护用户。

越是强大的能力,越需要清晰的边界。

越是拟人的表现,越要提醒“它不是你以为的那种智能”。

第三节我们提到对话会误导人,但真正让人“当真”的,是 AI 开始动手做事。

Mustafa Suleyman 在播客里讲了一个真实故事:

几天前,他在洛杉矶机场打开了 Copilot Vision。 AI读取了登机口信息,说:

“你这班飞西雅图的航班要延误了。”

Suleyman 当时不信,觉得这是“幻觉”。 结果去问前台,工作人员说:

“我们正准备广播通知。”

这不是搜索结果,也不是提前查好的网页。是 AI 在现实中看到图像、分析时间、比对航班,主动得出结论。它不是陪你说话,而是在帮你动手处理问题。

而这种行动能力,会快速改变人对它的期待。

你可能会开始让它:

从聊聊而已,变成直接执行。AI 的位置,也从对话框,走进了“操作桌面”。

Suleyman 用四个词总结这个变化:

看、想、说、做。AI 已经从说话,进入到计划、执行阶段。

但能力越强,误用的可能也越高。

Suleyman 提到:

“Copilot Actions 已经可以在你的Windows桌面上操作,点击按钮、移动鼠标、输入表格,甚至帮你完成整套任务。”

他对这件事既兴奋,也格外谨慎。

因为一旦进入自动执行环节,AI 的“可信度”就不是体验问题,而是责任问题。

想象一下,如果一个自动化助手下错单、填错表、误点发布按钮……

谁来负责?谁来审核?用户是否知道 AI 做了哪些操作?有没有留痕?有没有确认机制?

Suleyman 没有回避这些问题。他提出的原则是:

“AI 的每一步行动都必须在边界内。边界清晰,风险才可控。”

这就是他的另一条产品提醒:

不是模型越能干越好,而是越能干,越需要前置限制。

限制什么?

限制访问范围:不能随意查看文件、读取个人记录;

限制执行权限:高风险任务必须人工确认;

限制决策位置:AI 不能成为“唯一决策者”,尤其在人、财、法等领域。

Suleyman 明确表示:

未来几年,人人都能发布一个AI工具,产品之间护城河正在快速消失。

但真正的竞争,不是赶进度,而是先设规则。

他给出的一个重要启发是:用 AI 去做事很容易。但用 AI 做事,还能保证安全、稳定、可追踪,那才是产品的硬实力。

所以别光看它“能干什么”,更要问:

你让它干的那些事,是否应该让它干?

你有没有为它划定好只能做多少的范围?

Mustafa Suleyman 给出的建议很简单:

“我们必须为人构建 AI,而不是构建数字人类。”

不是技术复杂,而是人会被外表骗。AI 一旦开口、执行、记住、叫你名字,就很容易被误认为“是真人”。

错不在模型,而在我们自己。那该做什么?他提出三个要点:

识别假相: 别把“说得像”误当“真的懂”。

设定边界: 只给它该干的权限,关键任务必须有人工把关。

评估效果: 用具体结果衡量它的价值,理性决定信任程度。

别等 AI 出事,才来划红线。越像人的AI,越要被当成工具来看待。

最难的,不是训练模型,而是我们能否保持清醒。

来源:趣闻捕手一点号

相关推荐