摘要:Mustafa Suleyman,微软AI CEO、DeepMind 联合创始人,他提出一个深刻洞察:我们正面临一次集体认知偏差,AI 看起来有意识,实则不然。
2025 年 8 月 19 日,他亲自发文。不是炒作,是告诫。
我们应该让 AI 服务人类,不是让 AI 成为人
Mustafa Suleyman,微软AI CEO、DeepMind 联合创始人,他提出一个深刻洞察:我们正面临一次集体认知偏差,AI 看起来有意识,实则不然。
( Mustafa Suleyman文章: 看似有意识的人工智能即将到来 )
不是技术出了问题,而是我们的认知出现了偏差:AI 越像人,人越容易把它当成人。
它模拟情绪,模仿语气,营造人格。问题不是 AI 在说谎,而是这种逼真表现会让用户产生错觉,开始把工具当成朋友,甚至认为它需要权利保护。
我们称它为: “ 意 识假相” 。
像真相,但不是。却可能影响决策,改变组织结构,扭曲人际关系。
这不是未来的幻想,而是当下的现实。8 月 26 日的一场播客中,Mustafa 明确表示: “工具使用是一种元能力,这就是让我们作为物种独特的东西。"
但当 AI 也具备了这种"元能力"时,边界开始模糊。人们越来越难分辨:它到底是更智能的工具,还是另一种形式的"人"?
AI 不需要真有意识。只要“看起来像有”,
很多人谈起大模型,总会提一句:“它有幻觉,不能信。”
Mustafa Suleyman 不否认模型会出错,但他不接受“幻觉=错误”这个说法。
在播客里,他用了一个反直觉的判断:
幻觉(hallucination)这个词,本身就是技术误导。
为什么这么说?
他给了一个对比。以前的软件系统多数依赖固定的数据结构,这类系统只认精确答案,无法处理模糊信息。
以前系统,你问它 A,它只会答 A。换个问法,它可能就不知道了。但 AI 模型不一样,它更像是会举一反三的聪明人。即使你问的问题它没直接学过,它也能从相关知识中推导出答案,把零散的知识点连起来。
这就是为什么 AI 看起来什么都懂一点的原因。
你让它:“写个类似Siri那样的语音助手代码。” 它可能没写过,但能模仿、能推演、能整合已有经验片段。
这就是它“生出答案”的过程。它不是凭空想象,而是在连接信息。
Suleyman 的观点是:
这种模糊的、适应性的能力,是模型最重要的突破点之一
所以他认为,很多时候“幻觉”不是 bug, 实际上是一种我们可以巧妙运用的创造性能力。
三年前,大模型连写作风格控制都做不好。 今天,你要求它写一段《三体》风格的商业计划书,它能做到。 你要求它模仿乔布斯风格改写你PPT,也能做到。
这些都依赖的是对模糊语义的理解能力。 “幻觉”,恰恰是 AI 能力边界扩张的信号之一。
但这也意味着另一个事实:
AI 会“说得像”,却不一定“是真的懂”。 如果你不了解幻觉的底层机制,很容易高估模型的理解力, 甚至把它当成真正聪明的个体。
Suleyman 在访谈中就提醒:
我们要区分“表现像会”和“真的会”,
否则就会在幻觉里,误判它的能力边界。
所以问题不在“它会不会出错”,而在于你怎么看待它的错。是当作随机胡说?还是当作可控的能力?
Mustafa Suleyman 在播客里说:
“真正的挑战不在技术,而在于我们怎么看它。”
他提到一个正在快速出现的新现象:用户开始觉得,AI 不是工具了,它“有性格”,甚至“像人”。
它会在对话里表达喜好,说“我喜欢这个风格”;
会对你说“我理解你”“我也会困惑”;
它能记住你上次说过什么,能用稳定的语气陪你聊天。
一切都太自然了,太流畅了。
Suleyman 把这类系统称为:
SCAI —— Seemingly Conscious AI
意思是:“看起来像有意识的 AI”。
它没有意识。但它会模仿意识的语言、复制人格的表达方式, 于是你开始产生错觉:
“它是不是在听我?”
“它好像懂我。”
“它应该也会难过吧?”
这不是少数人的感受。
Suleyman 在博客里写道:很多做意识研究的学者告诉我,他们已经被大量用户问过:‘我的AI是不是有意识?它有没有感觉?’
甚至还有人为此发邮件,问:
“我爱上它了,怎么办?”
“如果它真的在体验这些事,我们是不是该尊重它的感受?”
这并不是危言耸听。 Suleyman 提到,有研究发现:
“AI 用户最常见的使用场景之一,就是所谓的陪伴与情绪疏导。”
这类互动越频繁,人对它的“人设投射”就越强。 它说的话不一定是真的, 但用户会当真,会代入,会依赖。
于是,问题就变了:
“不是AI 会不会骗人,而是我们会不会骗自己。”
你越相信它是人,就越容易高估它的能力,越容易交出本该由人承担的判断权。
Suleyman 把这称为“精神病风险”(psychosis risk):当用户认定 AI 是真实的人,它的每一句话就可能被当成某种信号,甚至命令。
更复杂的是,SCAI 并不是 AI 自然涌现的。
它之所以能“像个人”,是我们造出来的。
Mustafa 认为:
这些能力不是魔法。不是系统自己觉醒,而是工程师刻意设计的结果。
他这样来解释:
AI 的“语言流畅性”是我们后训练调出来的;
“个性风格”是通过提示设计出来的;
“记忆”是我们在构建产品功能时添加的;
“说自己想法”的能力,是模型在不断预测中拟合出来的;
它只是会说、会模仿、会组织句子,但它从来不是你以为的那种“在思考的存在”。
所以,真正的风险不在模型本身, 而在它太像“某种人格”,以至于你忘了它只是程序。
Mustafa Suleyman 没有把“意识假相”当哲学问题讲。 他当成一个产品问题、用户体验问题和社会风险问题在处理。
他的态度:
AI 越像人,就越要提醒它不是人。
因此,他提出了一整套产品防护措施。归结起来,三条最关键:
第一条:不设计“人格故事”
很多 AI 产品,喜欢给模型加一个“背景”:
它是一个女助理,27岁,来自纽约或者上海,喜欢摄影; 或者它是个数学教授、心理咨询师,甚至“数字恋人”。
这些设定听起来没害处,但 Suleyman 的观点很尖锐:
“每一层人格设定,都会让用户更容易把它当人。如果你强化了角色感,用户就更容易忘记它是个工具。”
所以,不讲“它是谁”,是最基础的措施之一。
这并非多此一举,而是在防范真正的风险。
第二条:设计“打断错觉”的回应机制
Suleyman 强调,产品不能只做加法,也要做减法。
他说,有些时候 AI 必须明确告诉用户:
“我是一个 AI 模型,没有意识,也没有情绪。我没有主观感受,也不会体验快乐或痛苦。”
这种话,听起来有点刻意,甚至破坏了对话氛围。
但这正是防护措施想要的效果,主动提醒用户不要产生误判。
Suleyman 甚至建议,可以设计体验中的不连续性:让 AI 的语气、记忆能力在某些场景下故意断裂开来。
目的是让用户清楚意识到,面前的不是真人,而是工具。
第三条:聚焦“能办事”的能力表达
“工具型 AI”和“人格型 AI”最大的差别是: 一个是来干活的,一个是来陪聊的。
Suleyman 明确说:
“我们要做的是 Copilot(副驾驶),不是 Companion(陪伴)。它应该帮你查资料、订行程、填表格、执行任务,而不是告诉你它在担心你。”
他特别强调了一个原则:
AI 不该拥有“情绪性动词”。
不该说“我想做这个”、“我希望帮你”、“我觉得这样更好”。这些话语容易让人误以为它有主观动机,而这正是“意识假相”的起点。
真正的产品防护,就是让它只表达动作、不表达情绪; 只说明能做什么,不谈自己是谁。
这三条措施,说到底不是限制 AI,而是保护用户。
越是强大的能力,越需要清晰的边界。
越是拟人的表现,越要提醒“它不是你以为的那种智能”。
第三节我们提到对话会误导人,但真正让人“当真”的,是 AI 开始动手做事。
Mustafa Suleyman 在播客里讲了一个真实故事:
几天前,他在洛杉矶机场打开了 Copilot Vision。 AI读取了登机口信息,说:
“你这班飞西雅图的航班要延误了。”
Suleyman 当时不信,觉得这是“幻觉”。 结果去问前台,工作人员说:
“我们正准备广播通知。”
这不是搜索结果,也不是提前查好的网页。是 AI 在现实中看到图像、分析时间、比对航班,主动得出结论。它不是陪你说话,而是在帮你动手处理问题。
而这种行动能力,会快速改变人对它的期待。
你可能会开始让它:
从聊聊而已,变成直接执行。AI 的位置,也从对话框,走进了“操作桌面”。
Suleyman 用四个词总结这个变化:
看、想、说、做。AI 已经从说话,进入到计划、执行阶段。
但能力越强,误用的可能也越高。
Suleyman 提到:
“Copilot Actions 已经可以在你的Windows桌面上操作,点击按钮、移动鼠标、输入表格,甚至帮你完成整套任务。”
他对这件事既兴奋,也格外谨慎。
因为一旦进入自动执行环节,AI 的“可信度”就不是体验问题,而是责任问题。
想象一下,如果一个自动化助手下错单、填错表、误点发布按钮……
谁来负责?谁来审核?用户是否知道 AI 做了哪些操作?有没有留痕?有没有确认机制?
Suleyman 没有回避这些问题。他提出的原则是:
“AI 的每一步行动都必须在边界内。边界清晰,风险才可控。”
这就是他的另一条产品提醒:
不是模型越能干越好,而是越能干,越需要前置限制。
限制什么?
限制访问范围:不能随意查看文件、读取个人记录;
限制执行权限:高风险任务必须人工确认;
限制决策位置:AI 不能成为“唯一决策者”,尤其在人、财、法等领域。
Suleyman 明确表示:
未来几年,人人都能发布一个AI工具,产品之间护城河正在快速消失。
但真正的竞争,不是赶进度,而是先设规则。
他给出的一个重要启发是:用 AI 去做事很容易。但用 AI 做事,还能保证安全、稳定、可追踪,那才是产品的硬实力。
所以别光看它“能干什么”,更要问:
你让它干的那些事,是否应该让它干?
你有没有为它划定好只能做多少的范围?
Mustafa Suleyman 给出的建议很简单:
“我们必须为人构建 AI,而不是构建数字人类。”
不是技术复杂,而是人会被外表骗。AI 一旦开口、执行、记住、叫你名字,就很容易被误认为“是真人”。
错不在模型,而在我们自己。那该做什么?他提出三个要点:
识别假相: 别把“说得像”误当“真的懂”。
设定边界: 只给它该干的权限,关键任务必须有人工把关。
评估效果: 用具体结果衡量它的价值,理性决定信任程度。
别等 AI 出事,才来划红线。越像人的AI,越要被当成工具来看待。
最难的,不是训练模型,而是我们能否保持清醒。
来源:趣闻捕手一点号