摘要:这不是哲学玄谈,而是神经科学、数学、物理学、心理学、人工智能交叉研究的中心命题。它不是你能不能说话、是不是聪明、有没有行为反应的问题,而是:你有没有“体验”。牙疼、嫉妒、回忆母亲的脸——这些都能被“感觉”到;而脑中正在悄悄写入的记忆,你却毫无觉察。这种区别,定
人类对宇宙的探索已经深入基本粒子,也已经跨越星系,但对自身最熟悉的大脑,却依旧处在理解的早期阶段。意识,就是这其中最大的谜团。
这不是哲学玄谈,而是神经科学、数学、物理学、心理学、人工智能交叉研究的中心命题。它不是你能不能说话、是不是聪明、有没有行为反应的问题,而是:你有没有“体验”。牙疼、嫉妒、回忆母亲的脸——这些都能被“感觉”到;而脑中正在悄悄写入的记忆,你却毫无觉察。这种区别,定义了意识的核心特征。
意识不是单一现象,而是多层次构造。第一层是有或没有:你醒着就是有,麻醉下就是没有。第二层是“内容”:你看到什么、听到什么、想到了什么。第三层是“自我”:你感觉你是“你”,而不是别人。第四层,不是新的一层,而是“Being You”——这些层次被统一进一个系统中,构成了我们每个人的独特主观世界。
传统神经科学靠找“相关性”来解释意识,比如看到红色时视觉皮层激活,闻香水时嗅觉皮层活跃。但这类对应关系不是解释,只是观察现象。真正困难的是搞清楚为什么这些神经活动带来了“体验”,而不是像计算机芯片一样冷冰冰地处理信息。
这也是所谓“难问题”(Hard Problem)和“真问题”(Real Problem)的区别。哲学家查尔默斯提出的“难问题”是:为什么有意识体验?为什么物质某种排列方式会产生感受?这是个目前连什么是好答案都不知道的问题。而神经科学家塞思更关注“真问题”:从神经机制出发,解释具体的意识属性,比如空间感、颜色、情绪、身体感等,哪怕无法解释它“为什么存在”,至少先搞清楚它“是怎么工作的”。
重点在这里:我们不直接“看到”世界,而是大脑不断预测世界,然后用感官信息来校准预测误差。这就是“预测编码”(Predictive Coding)理论,核心假设是:大脑是一个生成模型(Generative Model),它从内而外构造经验,而不是被动接收世界。这种观点导致了一个颠覆性的说法:我们看到的,是“受控的幻觉”(Controlled Hallucination)。
这不是说世界不真实,而是说我们对世界的感知,是基于大脑内部模型生成的最佳猜测。感官信号的任务,只是不断校正这些猜测。看到一个杯子,大脑其实是预测它有一个“背面”,即使你没看到,它也“假定”它存在。这种“对象性”(Objecthood)体验,是预测和运动意图(比如转动杯子)的交织产物。
色彩感知是另一个例子。颜色不是光的物理属性,而是大脑根据光波构造出来的体验。人类只能感知电磁波谱中的极小一段,但大脑用三种光感受器拼出几乎无限的颜色。这是典型的:物理输入很少,感知输出极多。
同一张图片,有人看蓝黑,有人看白金。区别在于每个人大脑对环境光线的“假设”不同,有人假设是室内黄光,有人假设是室外蓝光,结果大脑就生成了完全不同的颜色经验。
大脑的这种构建机制还会导致“注意力盲区”(inattentional blindness)和“变更盲区”(change blindness):即使变化就发生在眼前,如果大脑没预测到,就会完全忽略。这种实验不只是趣味游戏,而是揭示大脑对“现实”的主动构建机制。
最颠覆性的一点是:“自我”也是一种幻觉。它并非是体验的源头,而是体验的一部分。你感觉你是“你”,这本身就是一套大脑构造出来的内在模型,它包括了身体的边界、情绪的流动、决策的错觉,甚至是意志和自由的感受。
自由意志,不是控制的来源,而是动作预测的回读信号。你觉得你“决定”去拿水杯,其实是大脑发出预测动作的指令,然后用意识“补记”了这个动作感受。这是一个自洽的幻觉。
这并非虚无主义,而是可量化、可建模、可干预的科学对象。塞思团队在探索神经系统中的“群体现象”,比如用数学刻画“意识状态”的整体涌现性(像鸟群的 flockiness),尝试用群体动力学解释意识的统一性。也在推动“感知普查”(Perception Census),从数万人中采集感知差异数据,反映人类内在经验的个体多样性。
研究还带来临床冲击。在昏迷患者中,有人被判断为“植物人”,但在功能核磁共振中,被要求想象打网球或在家中走动时,其相关运动脑区会激活。这种非行为响应的意识检测方法,为极重度病人提供了沟通通道,乃至伦理判断的依据。
意识研究也挑战了物种界限。塞思认为:只要是哺乳动物,大概率都有某种形式的意识。八爪鱼可能也有;昆虫、细菌则难说。但必须慢慢向外推广,建立在人类研究基础之上。而不是直接套用人类模型。否则,要么过度投射(宠物意识拟人化),要么过度剥夺(否认非人类意识)。
至于机器。塞思不排除可能性,但强调一点:智能不等于意识。语言能力、交互性、推理力,哪怕都具备,也不等于拥有感受。关键还是要看是否有内部模型、是否有感知结构、是否有经验机制。没有“感觉”的ChatGPT,再聪明也不是“有意识”的系统。
总之,意识不是灵魂的凭据,而是预测系统的产物。人类不是世界的被动接收者,而是主动建构者。你看到的,不是世界本身,而是你大脑版本的世界。
而你自己,也不过是这套构建系统中的一个模型而已。
来源:老胡科学一点号