追问daily|意识的“热点”在后脑?

360影视 日韩动漫 2025-08-12 11:59 3

摘要:为何女性患狼疮的风险是男性的九倍,而帕金森病在男性中更常见?为了探究疾病中的性别差异之谜,拉霍亚免疫学研究所(La Jolla Institute for Immunology)的 Erica Ollmann Saphire 和 Sonia Sharma 等研

为何女性患狼疮的风险是男性的九倍,而帕金森病在男性中更常见?为了探究疾病中的性别差异之谜,拉霍亚免疫学研究所(La Jolla Institute for Immunology)的 Erica Ollmann Saphire 和 Sonia Sharma 等研究人员发表了一篇综述,系统性地阐明了遗传、激素及环境因素如何共同塑造男女在特定组织中的免疫反应。

该综述指出,免疫系统的性别差异根植于三大支柱。首先是遗传,女性拥有两条X染色体(XX),其中富含免疫基因。这种基因上的“双倍剂量”和细胞中两条X染色体随机失活形成的“镶嵌”现象,使得女性在抵抗如SARS-CoV-2等病原体时表现更佳,但也极大地增加了患上狼疮(lupus)和干燥综合征(Sjögren's syndrome)等自身免疫疾病的风险。其次,性激素扮演着关键的“调音师”角色,免疫细胞能直接感知雌激素和睾酮并据此调整其活性,导致男女的免疫细胞功能产生差异。最后,这些由基因和激素决定的差异并非全身性的,而是在特定组织中表现得尤为突出,解释了为何不同器官的疾病谱存在性别偏向。研究发表在 Science 上。

#疾病与健康 #个性化医疗 #性别差异 #免疫学

阅读更多:

Sharma, Sonia, et al. “Sex Differences in Tissue-Specific Immunity and Immunology.” Science, Aug. 2025. world, www.science.org, https://www.science.org/doi/10.1126/science.adx4381

意识的“热点”在后脑?新研究锁定后皮质为信息整合关键枢纽

如何量化意识并定位其在大脑中的关键区域,是神经科学的一大难题。整合信息理论(IIT)为此提供了理论框架,但现有计算方法存在局限。Xin Wen、Zhenhu Liang及其同事开发了一种名为ΦG的实用测量方法。研究不仅验证了新方法的有效性,还利用它揭示了在麻醉和睡眠期间大脑信息整合的变化规律,并指出了后部皮质在维持意识中的核心地位。

研究团队首先针对现有整合信息(Φ,衡量意识水平的关键指标)计算方法的瓶颈,即难以兼顾高维度和非高斯分布(真实脑电信号的特征),提出了一种基于高斯连接函数的新方法ΦG。该方法在模拟中被证实比传统方法更准确、偏差更小。随后,研究人员将ΦG应用于分析人类在清醒、丙泊酚麻醉和非快速眼动睡眠(NREM sleep)三种状态下的脑电图(EEG)数据。结果清晰地显示,当被试者失去意识时(麻醉和睡眠状态),其大脑α波段的ΦG值显著下降。更重要的是,使用ΦG作为特征的分类器,其区分不同意识状态的准确率显著优于传统的功能连接或大脑网络效率指标。

在探究意识的神经基础时,研究发现,对信息整合贡献最大的并非此前一些理论强调的前额叶皮层,而是后部皮质(posterior cortex),特别是后扣带皮层(posterior cingulate cortex,PCC),以及与之相关的默认模式网络(DMN)和背侧注意网络(DAN)。研究发表在 NeuroImage 上。

阅读更多:

“A Practical Measure of Integrated Information Reveals Alpha-Band Activity and the Posterior Cortex as Neural Correlates of Arousal.” NeuroImage, vol. 318, Sep. 2025, p. 121384. www.sciencedirect.com, https://doi.org/10.1016/j.neuroimage.2025.121384

丘脑作为大脑发育计时器,调控皮层可塑性层级顺序

大脑如何精确地按“先感觉、后认知”的顺序发育?针对这一问题,宾夕法尼亚大学的 Theodore Satterthwaite 和 Valerie J. Sydnor 领导的团队挑战了丘脑仅为“中继站”的传统观念。他们发现,这个大脑深处的结构实际上扮演着“计时器”的角色,通过其与大脑皮层的连接发育,主动引导着大脑可塑性的层级发展时间表。

皮质发育的层次化、从感觉运动到联想的顺序。Credit: Valerie Sydnor.

研究团队构建了一个高分辨率的人类丘脑皮层连接图谱,并将其应用于三个大型青少年样本(总人数达2,676名,年龄8-23岁)的扩散磁共振成像(diffusion MRI,一种通过追踪水分子运动来绘制大脑内部结构连接的技术)数据。分析结果清晰地表明,丘脑与大脑皮层之间的结构连接成熟遵循着一个固定的层级顺序。与视觉、听觉等基础功能相关的感觉运动区的连接在儿童期就已基本成熟,而负责决策、社交等复杂认知功能的联想区的连接,其成熟过程则会持续到青春期后期。这一发育上的“异时性”意味着,丘脑通过调控连接的成熟节奏,决定了不同脑区可塑性窗口的开启与关闭。更重要的是,那些发育时间更长的联想区连接,也表现出对社会经济环境等外部因素更高的敏感性,这从神经生物学层面解释了成长环境为何能长期塑造我们的高级心智功能。研究发表在 Nature Neuroscience 上。

#神经科学 #神经机制与脑功能解析 #大脑发育 #神经可塑性

阅读更多:

Sydnor, Valerie J., et al. “Human Thalamocortical Structural Connectivity Develops in Line with a Hierarchical Axis of Cortical Plasticity.” Nature Neuroscience, vol. 28, no. 8, Aug. 2025, pp. 1772–86. www.nature.com, https://doi.org/10.1038/s41593-025-01991-6

视网膜通过调整轴突粗细与传导速度,实现视觉信号同步

我们如何感知到一个同步、流畅的视觉世界,即使来自视野不同角落的信号需要走过长短不一的“路”才能到达大脑?来自巴塞尔分子与临床眼科研究所(IOB)、巴塞尔大学和苏黎世联邦理工学院的 Annalisa Bucci 和 Felix Franke 等研究人员,发现了一种前所未知的补偿机制:人类视网膜自身就能主动校准信号的“发车时间”,确保同步到达。

人类视网膜神经纤维层中的轴突束。Credit: Nature Neuroscience (2025).

研究团队采用了一种多技术融合的方法。首先,他们利用高密度微电极阵列(high-density microelectrode arrays)直接测量了捐献的人类视网膜组织中单个神经轴突的信号传导速度。随后,通过透射电子显微镜(transmission electron microscopy)和高分辨率成像,他们精确测量并重建了这些轴突的直径和三维路径。研究发现了一个优雅的补偿法则:需要传输更长距离的轴突,其物理直径也更粗,而更粗的轴突能以更快的速度传导电信号。

为了验证这一解剖学上的微调是否会影响真实感知,团队还使用了自适应光学扫描激光检眼镜(adaptive optics scanning laser ophthalmoscopy,简称AOSLO)技术,在活体参与者眼中精确刺激单个感光细胞。结果显示,无论刺激点位于中央凹的哪个位置,参与者的反应时间都惊人地一致。这有力地证明了,在信号离开眼睛前,视网膜内部的无髓鞘轴突(unmyelinated axons)已经通过调整自身粗细和速度,补偿了路径长度差异,将时间误差缩小到2.5毫秒以内,从而为大脑呈现了一个时间上高度同步的视觉世界。研究发表在 Nature Neuroscience 上。

阅读更多:

Bucci, Annalisa, et al. “Synchronization of Visual Perception within the Human Fovea.” Nature Neuroscience, Jul. 2025, pp. 1–9. www.nature.com, https://doi.org/10.1038/s41593-025-02011-3

数学模型可纠正MRI脑血流成像错误,提高诊断准确性

如何准确测量脑血流,尤其是在MRI图像数据因各种错误而不完整时?洛杉矶儿童医院和南加州大学的 Eamon Doyle 与 Matthew Borzage 及其团队,开发出一种新型计算模型。该模型能够利用不完整的数据集,准确估算脑血流量,为脑部疾病的精准诊断提供了有力工具。

准确测量脑血流(CBF)对评估大脑健康至关重要,而相位对比磁共振(PC MR,一种非侵入性成像技术)是常用方法之一。然而,由于患者移动或血管结构复杂,PC MR 扫描常常会产生部分数据缺失,影响诊断。为解决此问题,研究团队收集了196名儿童和成人的258组扫描数据,并故意移除部分主要动脉(如颈内动脉ICA)的数据以模拟真实世界的采集错误。随后,他们开发了数学归因模型,该模型结合患者年龄和剩余完好血管的血流信息,来预测缺失的数值。结果显示,该预测模型表现极佳,其预测值与真实值高度吻合,R平方值超过0.91,组内相关系数(ICC)高于0.951。这意味着即使只有部分数据可用,该模型也能有效地修复并准确估算总脑血流量,极大地提升了诊断的可靠性,并有望让标准的MRI设备也能完成复杂的脑血流评估。研究发表在 Frontiers in Physiology 上。

#疾病与健康 #预测模型构建 #AI驱动科学 #医学影像

阅读更多:

Doyle, Eamon K., et al. “Imputation Models and Error Analysis for Phase Contrast MR Cerebral Blood Flow Measurements in Heterogeneous Pediatric and Adult Populations.” Frontiers in Physiology, vol. 16, Jun. 2025. Frontiers, https://doi.org/10.3389/fphys.2025.1527093

不止是蛋白沉积:发现炎症在阿尔茨海默病中的核心作用

如何有效防治阿尔茨海默病?长期以来,关于其病因的争论使研究进展缓慢。耶鲁大学的Amy F. T. Arnsten及其来自德国乌尔姆大学、圣路易斯华盛顿大学等机构的合作者们,通过一篇综述性文章,整合了多学科前沿发现,提出了一个更具凝聚力的疾病模型,为开发新疗法指明了方向。

该研究并非一项单一实验,而是对阿尔茨海默病领域的系统性梳理与整合。研究团队汇集了神经病理学、基因组学、蛋白质组学及最新的生物标志物研究,旨在解决长期存在的“先有淀粉样蛋白还是先有tau蛋白”的争论。研究的核心结论是,阿尔茨海默病的病理并非简单的线性因果关系,而是由β淀粉样蛋白、tau蛋白和神经炎症三者构成的恶性循环共同驱动。这三者可以相互触发、相互放大,共同推动神经元的退化和死亡。这一综合模型解释了为何针对单一靶点的药物效果有限,并凸显了早期干预的重要性。尤其值得一提的是,新型血液生物标志物(如pT217Tau)的出现,使在症状出现前数年就能检测到tau蛋白的早期病理变化成为可能,为预防性治疗打开了窗口。研究发表在 Alzheimer's Dementia 上。

#疾病与健康 #跨学科整合 #阿尔茨海默病 #神经炎症

阅读更多:

Arnsten, Amy F. T., et al. An Integrated View of the Relationships between Amyloid, Tau, and Inflammatory Pathophysiology in Alzheimer’s Disease. alz-journals.onlinelibrary.wiley.com, https://doi.org/10.1002/alz.70404. Accessed 11 Aug. 2025

皮层时空行波综述:物理学、生理学与心理学的统一框架

大脑活动并非孤立的“闪光点”,而是像水面涟漪一样以行波形式传播。这些波有何功能?澳大利亚莫纳什大学的Jace Cruddas、James C. Pang和Alex Fornito团队通过系统性回顾,整合了物理学、生理学和心理学的交叉证据,为理解这一基本的大脑组织原则提供了全面的理论框架。

该研究是一篇综合性述评,作者系统梳理了从高分辨率的介观成像(如钙离子成像(Ca2+ imaging)和电压敏感染料(voltage-sensitive dyes))到宏观的全脑记录(如脑电图(EEG)和功能性磁共振成像(fMRI))等多种技术手段下关于皮层行波的发现。文章指出,皮层行波是跨物种、跨大脑状态的普遍现象。其功能具有双重性:一方面,自发产生的宏观行波像指挥家一样,协调和同步整个大脑皮层,即使是功能层级和物理位置相距甚远的脑区也能实现有效沟通。另一方面,由外部刺激诱发的行波则扮演着信息载体的角色,不仅编码了我们看到、听到的外界信息,还与相应的行为决策紧密相关。更重要的是,这些波的传播为大脑整合自下而上(前馈)和自上而下(反馈)的信号流提供了物理机制,是实现预测编码(predictive coding,即大脑通过不断预测来理解世界的核心理论)的基础。研究发表在 Trends in Neurosciences 上。

#神经科学 #神经机制与脑功能解析 #皮层行波 #综述

阅读更多:

Cruddas, Jace, et al. Cortical Traveling Waves in Time and Space: Physics, Physiology, and Psychology. OSF, 30 Jul. 2025. OSF Preprints, https://doi.org/10.31234/osf.io/97ad5_v1

AI 行业动态

百川智能开源医疗大模型Baichuan-M2登顶全球医疗AI榜首

百川智能于2025年8月11日发布开源医疗增强大模型Baichuan-M2,在权威评测HealthBench中以60.1分的成绩超越OpenAI最新开源模型GPT-OSS-120B(57.6分),成为全球医疗能力最强的开源模型。此次突破的关键在于百川首创的“AI患者模拟器”和端到端强化学习技术,通过模拟数百万次真实诊疗场景,使模型在复杂医疗问答中表现卓越。尤其值得注意的是,Baichuan-M2仅以32B的较小尺寸实现性能反超,同时支持低成本私有化部署,可在RTX4090显卡上运行,为医疗机构提供了实用化解决方案。

OpenAI此前将医疗作为重点方向,投入大量资源构建HealthBench评测集,涵盖5000个多轮医疗对话和1000个高难度问题(Hard子集)。而Baichuan-M2在Hard子集上以34.7分成为全球第二款超越32分的模型,仅次于闭源的GPT-5。这一成绩表明,该模型在疑难病例诊断和临床思维上已接近资深医生水平,尤其在知识更新速度和推理逻辑上具备显著优势。百川团队通过融合医学数据与通用数据训练,确保模型在数学、写作等非医疗领域性能同步提升,避免了“高分低能”问题。

百川的技术创新包括大型验证系统、多阶段强化学习及动态医学数据库,其AI患者模拟器能生成包含噪声的真实病例,极大提升了模型应对复杂场景的能力。此外,Baichuan-M2针对中国临床需求优化,严格遵循《原发性肝癌诊疗指南》等本土规范,在治疗方案推荐上更符合国内医疗实际。实测中,该模型在儿科、内分泌科等多学科会诊中展现出主任医师级的诊断能力,获得国家儿童医学中心等机构的高度认可。

#医疗AI #开源大模型 #百川智能 #HealthBench #强化学习

阅读更多:

国产大模型GLM-4.5技术细节全揭秘,推理、编码与智能体能力如何实现三位一体?

智谱(Zhipu)最新发布的GLM-4.5技术报告详细披露了其旗舰模型的研发细节。该模型首次在单一架构中融合了智能体(Agentic)、推理(Reasoning)和编码(Coding)三大核心能力(简称ARC能力),并在12项国际基准测试中综合排名全球第三,成为国产开源模型的佼佼者。报告显示,GLM-4.5采用混合专家(MoE)架构,通过优化路由机制和增加模型深度提升推理性能,同时引入Muon优化器和QK-Norm技术确保训练稳定性。

模型的训练分为预训练、中期训练和后训练三个阶段。预训练阶段使用15T通用语料和7T代码推理数据,中期训练则通过代码仓库级学习、合成推理数据及长上下文训练进一步强化能力。为支持高效强化学习,智谱开源了框架slime,其异步训练设计和混合精度加速技术显著提升了智能体任务的训练效率。后训练阶段通过专家蒸馏整合专项能力,最终使GLM-4.5在TAU-Bench、SWE-bench等测试中超越Claude Sonnet 4等国际竞品。

#GLM-4.5 #大语言模型 #开源AI #强化学习 #智谱

AI 驱动科学

Science:AI模型精准预测启动子突变,有望将罕见病诊断率提升6%

为何许多罕见病患者无法通过基因测序找到病因?这通常是因为致病突变隐藏在广阔的非编码区。因美纳(Illumina)公司的Kishore Jaganathan和Kyle Kai-How Farh等研究人员开发了一款名为PromoterAI的人工智能模型,它能精准识别位于基因启动子区域的致病突变。

研究团队开发的PromoterAI是一个深度神经网络,其训练分为两步。首先,模型通过学习海量的功能基因组学数据,掌握了基因表达调控的基本“语法”;随后,团队利用一个特殊的训练集对模型进行微调,该训练集包含了数千个已知的、会导致基因表达异常的罕见启动子突变。经过优化的PromoterAI能够精准预测未知突变的功能后果。研究人员通过多项实验验证了模型的有效性。例如,在英国生物样本库(UK Biobank)数万人的数据中,模型预测的突变效应与真实的蛋白质水平变化高度相关。最关键的是,当应用于英国基因组学计划中未确诊的罕见病患者时,PromoterAI在与患者疾病相关的基因中,成功识别出大量被预测会导致表达不足的启动子突变。研究团队估计,这类被传统测序忽略的突变,贡献了罕见病遗传负担的6%,尤其是在那些因单倍体不足而致病的基因中富集。研究发表在 Science 上。

#AI驱动科学 #预测模型构建 #个性化医疗 #罕见病

阅读更多:

Jaganathan, Kishore, et al. “Predicting Expression-Altering Promoter Mutations with Deep Learning.” Science, Aug. 2025. world, www.science.org, https://doi.org/10.1126/science.ads7373

大模型思维链推理是海市蜃楼吗?新研究揭示其依赖于数据分布

大型语言模型通过“思维链”展示的推理能力究竟是真实智慧还是虚假繁荣?来自美国亚利桑那州立大学的Chengshuai Zhao、Huan Liu及同事们提出,所谓的推理更像是一种依赖于训练数据的“海市蜃楼”。他们的研究系统地揭示了思维链推理能力的脆弱性及其对数据分布的依赖。

研究团队首先提出了一个核心假设:模型的思维链(Chain-of-Thought)并非源于真正的逻辑推断,而是对训练数据中已有模式的模仿。为了验证这一点,他们开发了一个名为DataAlchemy的受控实验平台,用于从零开始训练语言模型,从而精确地控制模型接触的数据。研究人员通过这个平台,系统地测试了模型在面对“分布外”数据时的表现,即当测试问题的任务结构、推理长度或提问格式与训练数据不同时,模型的推理能力会发生什么变化。结果清晰地表明,思维链推理非常脆弱。一旦测试问题稍微偏离其训练数据的分布范围,模型的性能就会急剧下降,甚至会生成看似连贯但逻辑上完全矛盾的答案。这证明了模型的“推理”实际上是基于模式匹配的“插值计算”,而非可泛化的逻辑能力。

阅读更多:

Zhao, Chengshuai, et al. Is Chain-of-Thought Reasoning of LLMs a Mirage? A Data Distribution Lens. arXiv:2508.01191, arXiv, 5 Aug. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2508.01191

AI鼓手横空出世:机器人通过强化学习掌握类人演奏技巧

来自SUPSI、IDSIA和米兰理工大学的Asad Ali Shahid, Francesco Braghin及Loris Roveda团队开发了一套名为“机器人鼓手”的系统。该系统利用人工智能,成功教会一个人形机器人在模拟环境中精准且富有表现力地演奏架子鼓。

机器人鼓手按照习得的节奏敲击镲片(深棕色)。Credit: Shahid, Braghin Roveda.

研究团队的核心方法是采用强化学习。他们首先将复杂的鼓谱转化为一系列精确的“节奏接触链”(rhythmic contact chain),告诉机器人何时(timing)敲击哪个(spatial)鼓面。随后,机器人在模拟环境中不断练习,其行为会根据是否准确击中节奏点而获得奖励或惩罚。通过优化奖励,机器人不仅学会了准确演奏林肯公园《In the End》等高难度歌曲,节奏精准度超过90%,更令人惊讶的是,它还自主发展出了许多未被直接编程的、类似人类的演奏技巧。例如,它会为了跟上快节奏而灵活地交叉手臂击打不同的鼓,或者动态地切换主导鼓槌。这些“涌现”出的高级行为表明,机器人真正“理解”了演奏的内在逻辑,而不仅仅是机械模仿。

#认知科学 #机器人及其进展 #强化学习 #人形机器人

阅读更多:

Shahid, Asad Ali, et al. Robot Drummer: Learning Rhythmic Skills for Humanoid Drumming. arXiv:2507.11498, arXiv, 16 Jul. 2025. arXiv.org, https://doi.org/10.48550/arXiv.2507.11498

突破40年Dijkstra算法瓶颈,清华教授等颠覆教科书

如何更快地计算网络中的最短路径,是困扰计算机科学界数十年的难题。清华大学的Ran Duan及来自斯坦福大学、马克斯·普朗克信息学研究所的合作者Xiao Mao、Xinkai Shu等人,提出了一种颠覆性的新算法,成功突破了经典Dijkstra算法长达40年的“排序瓶颈”,为这一基本问题带来了重大理论突破。

在计算机科学中,单源最短路径问题(Single-Source Shortest Path, SSSP)旨在找到从一个起点到所有其他点的最快路线。经典Dijkstra算法通过逐个找出距离最近的节点来解决此问题,但其效率也因此受限于“排序瓶颈”(sorting bottleneck,即算法速度不会快于排序本身),这一理论极限近四十年来未被超越。该团队的新算法巧妙地融合了两种经典思路:Dijkstra算法和Bellman-Ford算法。它不再严格按照距离远近对所有节点进行排序和处理,而是采用一种分层推进策略。其精妙之处在于,算法会选择性地运行Bellman-Ford算法来“预先侦察”,快速定位网络中那些交通枢纽般的关键节点,并优先探索它们。随后,算法再回头处理其他次要节点。通过这种非严格排序的探索方式,成功绕开了瓶颈。最终,团队构建了一个复杂的确定性算法,其运行时间为O(m log²/³ n),在稀疏图上显著优于Dijkstra算法的O(m + n log n)。这项成果可能改写未来的算法教科书。研究发表在 ACM Symposium on Theory of Computing会议上。

来源:高峰观天下

相关推荐