摘要:尼尔·斯蒂芬森(Neal Stephenson),美国知名科幻作家、《雪崩》作者,先开口:
2025年5月27日 · South Park Commons 圆桌现场
一位提出“元宇宙”概念的小说家、
一位横扫雨果与星云的叙事大师、
一位研究意识起源的认知学者、
一位押中 Uber 和 SpaceX 的硅谷投资人,
在一张并不宽敞的舞台上,展开了今年关于 AGI 最不寻常的一场对话。
尼尔·斯蒂芬森(Neal Stephenson),美国知名科幻作家、《雪崩》作者,先开口:
现在的速度太快了,有人甚至在问:除了 AI,还值得做别的吗?
刘宇昆(Ken Liu),雨果奖、星云奖“双冠王”,紧跟着调侃旧时代的幻想:
机器已经会写交响乐了,却还摘不下一颗覆盆子。
Joscha Bach,德国著名的人工智能专家,说出最理性的一句:
如果没有什么神秘火花,AGI 也许只差几篇论文。
一块 H100 的显卡,已经能模拟我们脑海里的内心电影院。
Cyan Banister,硅谷最具人文感的投资人,语气柔和:
如果 AI 真有了意识,那将像‘无暇受孕’一样,不可解释。
但这场对谈的真正焦点,不是预测 AGI 的时间表,而是他们反复追问的这个问题:
当我们连自己的意识都没讲清楚时,真的准备好让 AI 拥有意识了吗?
过去三年,AI 从实验室走入日常,大模型的每一次突破之后,都会让我们回到那个更难回答的起点:
我们到底是在造工具,还是在唤醒一种我们还不懂的生命形式?
这篇文章不会提供答案,但它会复原这场交锋的关键瞬间,梳理 AI 迈向通用智能必须跨过的三道「意识边界」:
情境自建:没有身体,AI如何生成“可信世界”?因果自洽:它能讲清楚自己为什么得出这个判断吗?价值自证:AI做出的选择,能赢得谁的信任?你将看到的不是一场普通访谈,而是:几个不同视角的交织、对未来可能性的探讨,以及对我们自身认知的反思。
“我们的问题不是 AI 会不会有意识,而是我们连自己的意识是什么都没搞清楚。”这是 Joscha Bach 开场就抛出的洞见。
他不是在卖哲学,而是指出了一个被所有 AGI 技术路线回避的问题:人脑能做的事,我们越来越能用模型模拟出来。但我们从没搞明白——意识这个东西,到底是怎么冒出来的。
很多人以为,只要模型够大、数据够多、算力够强,总有一天会“自然跑出一个有意识的智能体”。
Joscha 的回答很冷静:“意识不是算力多了就自动诞生的奇迹。它更像是一个连续自我感知过程,一种在不断预测自己行为时生成的错觉。”
01|“意识”也许只是一个高仿的错觉
他举了一个很扎心的例子:Transformer 模型不像人类那样,需要在‘思考中’持续构建一致性。你给它一个提示,它只是激活了某种说话的可能性。
但当你提示它‘你正在思考’时,它会即时生成一个‘我在思考’的假象——这种行为,和我们自我感知之间的界限,开始模糊了。
通俗点说: 当你和 GPT/DeepSeek 对话时,它并不知道自己存在。 但你只要问它“你在想什么?”,它会立刻说出一整套自洽的“心理活动”。 它不会真的思考,但它能模拟你以为的思考。
这就是 Joscha 提出的第一个警告:
意识很可能就是一种足够复杂的错觉。
他进一步指出一个被忽视的现象:几乎所有模型,不管是 GPT 还是视觉识别,只要输入足够多的数据,它们最后都会学习出非常相似的“思维结构”。
02|AI 学会的不是思考,而是“如何像你一样思考”
OpenAI 的研究员 Chris Olah 曾观察到,不同架构的视觉模型,最终都会自动学出和人类大脑视觉皮层相似的模式。Joscha把这称为“普遍性假说”:
我们并没有找到一套‘秘密公式’来制造意识。我们只是反复在用各种模型,试图训练出那个奇怪的、能觉察自己的回路。
换句话说,AI还算不上真聪明,但我们人类又何尝不是靠几十年的见闻经历,在脑子里搭建了一套思维系统。
这就是 Joscha 给所有想象 AGI 的人提出的根本提醒:
如果你给一个模型足够多的经验,它最终会变成什么?
它可能不是变成我们想象中的人,而是变成一种我们还没准备好理解的‘新存在’。
所以,AGI 不一定是一个超智能的大脑, 也许只是我们无法识别、但能持续运转的另一种意识格式。
“对我来说,理解 AI 最大的困难是:如果你没有身体,没有腐烂、没有边界,那拥有智能到底意味着什么?”
尼尔·斯蒂芬森说这句话时语速很慢,但在场的人都沉默了。
这不是个文学提问,而是他写作30年来反复绕不开的问题:意识不是冷冰冰的逻辑,而是我们活在这具有限身体里的真切体验。
我们之所以能思考,是因为我们会死、会累、会受伤。意识不是一堆规则,而是一种活在有限时间、有限空间中的体验。他说,他不写 AI 醒来的故事,不是因为写不出来,而是觉得那种“无边无际、永不出错”的智能体——“根本不像人,也不像能感知世界的东西。”
他说得很轻,却踩到了当前主流 AGI 想象的软肋:很多人想象 AGI 像个超级计算引擎,能读懂所有书、预测所有动作。 但我们从没认真想过一个问题:
如果你无法感知‘饥饿、疲惫、恐惧’,你怎么知道一个决定意味着什么?
他拿自己小说举例——
在《钻石时代》里,他写的是一个 AI 教师、一个被教育塑造的女孩,两者之间的情感与张力。为了让这个故事成立,他必须人为设定 AI 的能力上限:
如果 AI 无所不能,我根本没法讲故事。因为讲故事的前提,是角色会失败,是智能会被限制。
这句话很关键。
它不只是文学策略,更是一种人类认知的结构提醒:我们无法与一个“无错版本的自己”共情。也无法理解一个“没有代价的选择”背后有什么意义。
这节话的潜台词很清楚:
AGI 的问题不是技术突破不够,而是我们压根没搞清楚:
一个不会疼的 AI,怎么理解爱?
一个不怕死的 AI,怎么理解决定?
斯蒂芬森没有说“AI不会有意识”,他只是提醒我们:你以为的智能,也许必须被疼痛包裹、被衰老限制、被身体定义。
“我们这些科幻作家啊,细节常常错得离谱。但如果能流传的故事,都是在神话层面击中了要害。”
刘宇昆说这话时,大家都笑了。
他接着说:“预测互联网是什么样子,我们失败过很多次。但我们说 AI 将如何改变人,那大体没错。”
比如说,电影《机械公敌》里那句经典提问——
你能创作一首交响乐吗?
在电影里,AI 被设定为做不到;但在现实里,AI 早就能写得有模有样。 真正让人吃惊的,不是机器做到了什么,而是它以什么顺序实现了这些事。
刘宇昆指出:我们一直以为写文章、作曲需要意识,结果 AI 最先拿下的,恰恰是这些创意工作。
这背后的意思是:我们一直搞错了什么叫“思考”。
过去几十年,AI 被当作一场技术竞赛。每一次突破都被量化成一个指标、一个排行榜。
但他提醒我们,科幻写作最早就是在对抗这种线性想象的:技术的未来不是靠推理跑出来的,而是靠想象力拐出来的。真正重要的,不是‘AI 能干什么’,而是‘我们愿意让它参与什么’。
他提到玛丽·雪莱的《弗兰肯斯坦》:
“她根本不懂科学,但她挖掘出一种从未被说过的怪物。 那种对‘造物者’的恐惧,对被遗弃的智能的哀伤,一直到今天都困扰着我们。”
这就是他所谓的“神话判断”——
不是说 AI 要不要觉醒、会不会造反,而是: 我们能不能给它一个能被理解的角色?能不能讲出一个说得通的未来?
他总结得很到位:“科幻不是用来预测芯片数量的,而是帮我们练习‘面对陌生智能’的感觉。
好的故事,从来都不是提供正确答案,而是帮人类学会提问。
刘宇昆最后的提醒
不是AI变得多强,而是我们会不会讲一个它能听懂的故事,道理很简单:
你想让 AI 有“人味”?那你得先有个它能共情的剧本。
你想让它帮你解决复杂问题?那你得先有一个它能融入的价值框架。
否则,不管算力多强, 你面对的,都只是一台只会模仿人类的镜子, 它懂你说了什么,但不懂你想活成什么。
过去,我们以为 AI 最大的挑战是理解语言;现在我们发现,它会说话,却听不懂故事。
主持人这样总结近几年的感受——GPT 能写文章,能画画,甚至能编段子,但你总觉得它写得像个“没活过”的人。
因为它只是把语言拼起来,却没办法在这些句子背后,放进真正的动机和冲突。
它知道怎么模仿愤怒、喜悦、怀旧,但你能感到——它其实不在场。
刘宇昆也补了一句:
真正有感染力的创作,不是把语言组织得更漂亮,
而是能让读者感受到‘这是一个活着的生命在说话’。
这就是所谓的“叙事断裂”—— AI 能生成每一句话,但它无法承接句子之间的意义轨道。它没有目标,没有偏好,没有经验,所以写不出真正有灵魂的故事。
Cyan Banister 抛出一个新角度:AI 会解放那些‘不会写作’的人。 以前我们靠一小部分专业创作者来描绘未来,现在你只要会表达愿望,就能生成一整个宇宙。
她的意思是——AI 并不缺表达力,它缺的是人类对‘未来是什么样子’的主动想象。
她还说:过去的好莱坞,更愿意拍末日灾难片,因为便宜、刺激、好卖。现在,AI 可以让更多人创造美好未来的故事。成本低了,关键是你敢不敢说'我想要一个更好的世界'。
Joscha Bach 也有一个特别直白的说法:
大多数人觉得AI像个人,
其实是因为我们大脑的设计让我们看到什么都像人。
所有讨论最终指向一个核心问题:我们从没教过 AI,什么叫'活着',什么叫'存在感'。
AI 不缺词汇,不缺逻辑,不缺形式感,它缺的是成为'人'的理由。
它可以帮你写诗,但不懂你为什么要写。它可以假装悲伤,但不知道失去意味着什么。现在的 AI,像个演员,不断尝试演出人类的故事,但没人告诉它自己是谁。
你想让它成为助手、同事、合作者,前提是:
我们能不能写出一个让它融得进去的故事?
这才是叙事的真正作用——不是让 AI 更像人,而是让 AI 能够参与我们这个世界的游戏规则。
不是写一个句子,而是写一个世界。"
“我们正在进入一个技术领先、但意义滞后的时代。”
主持人说这句话时,用的是“我们跑得太快,但忘了我们要去哪儿”。
过去几十年,我们对技术进展有一个根深蒂固的期待——更强、更快、更自动。但斯蒂芬森提醒我们,这种预期的根源,其实来自冷战时期“核技术黄金年代”的叙事逻辑。
他说,写《Polostan(赤色马球)》时他研究了核裂变知识在二战前后的传播轨迹:这个发现既不是太早,也不是太晚。它发生在一个刚刚好的窗口期,让全世界都赶得及担心原子弹。
他说得更尖锐的一句话是:如果那个发现晚五年,可能就永远不会走出实验室。但它赶在了刚好能被‘传播’、能被‘理解’、能被‘当成威胁’的时刻。”
主持人点出这个话背后的深意:核武器最终改变的不是民用技术,而是政治话语权,是谁说了算。AI 也会如此——它改变的可能不是算力,而是决策方式,是谁来定义什么是对的。
Joscha Bach 在这一段讨论中也提醒大家:
“我们以为 AI 的关键是让它学会预测人类行为, 但我们从没想清楚:当它可以预测我们之后,它到底是帮我们,还是代替我们?”
你可以让 AI 写一份法律摘要,但你敢让它起草国家预算吗?你可以让它总结你的情绪,但你愿不愿意让它决定你该做出怎样的情感反应?这不是技术问题,是叙事问题。
你是否愿意相信,它不仅“能干”,还“该干”?
不是AGI会不会出现,是我们准备好让AI说了算吗?
技术边界已经模糊,下一场争夺,不是参数竞赛,
而是:
谁能先讲出一个让人信服的'AI融入社会'的故事?谁能写出一套足够清晰的剧本,让人类相信“AI 可以是伙伴,而不是黑箱”?斯蒂芬森总结说:
如果 AGI 真的只差几篇论文,你们现在的感觉是——兴奋,还是焦虑?
空气安静了几秒。
然后,有人缓缓开口:别忘了,我们自己也是这样变成‘人’的。人类并不是先有了自我,然后才开始思考。是我们先开始讲故事,然后才逐渐相信我们是谁。
这一句话,把所有技术路线图、意识模型、哲学概念压成了一个核心观点:
AGI,不是一个固定答案,而是一个还在写的故事。
真正的问题,不是它能不能考满分,
而是我们能不能让它理解这个世界到底是怎么回事。
从 Joscha 到斯蒂芬森,从代码语言到文学语言,他们没有试图给 AGI 下最终定义。
他们只是提醒我们:AI 的终点,不是会说话、会写诗、会做分析;
是当它开始问——“我是谁?”
而我们,终于愿意认真回答。
这一刻,才是故事真正开始的地方。
来源:趣闻捕手一点号