AI演进的灵魂代码藏在哪?

360影视 日韩动漫 2025-03-13 09:27 4

摘要:本篇访谈特邀复旦大学大数据学院的魏忠钰副教授,从基础研究到产业落地,为我们层层揭示AI崛起与迭代的内在逻辑。希望这场深度对话,能为读者提供新的思考角度与灵感,共同见证AI时代的蓬勃脉动。

转自追问nextquestion,版权属于原作者,仅用于学术分享,如有侵权留言删除

# 前言

在人工智能一次又一次的“飞跃”背后,究竟是什么在驱动它不断演进?AI演进的灵魂代码藏在哪里?

本篇访谈特邀复旦大学大数据学院的魏忠钰副教授,从基础研究到产业落地,为我们层层揭示AI崛起与迭代的内在逻辑。希望这场深度对话,能为读者提供新的思考角度与灵感,共同见证AI时代的蓬勃脉动。

相关追问:

1. AI发展这两次热潮有何意义?

2. 初创公司应该如何入局?

3. DeepSeek做对了什么?

4. 企业和学术做AI研究的优劣如何?

5. 硅基智能是否将会超越人类智能?

Q

魏老师好,能否为我们介绍一下您实验室的情况,以及您在复旦的主要研究职责和关注领域吗?

复旦大学数据智能与社会计算实验室。图源:http://www.fudan-disc.com/

Q

我们知道,人工智能的发展在国内已经进入了第二次浪潮。第一次浪潮以视觉领域的算法突破为代表,而现在的这一批企业则与通用大语言模型的兴盛和应用密切相关。您能否从学术或技术卡点的角度,为我们解读人工智能发展这两次热潮的意义?同时,您能否预测一下,未来还会有哪些关键的技术赛点?

魏忠钰:要回答这个问题,我们需要回顾过去十年中推动AI发展的核心技术驱动点。从语言模型的角度来看,过去十年发生了显著的变化。

(1)文字表征方法转变

(2)语言的长程依赖建模

(3)低成本可规模化的标注

图源:LM Po / Datawhale

(4)未来展望:多模态与深度推理

Q

您如何看待大语言模型和智能体之间的关系?现在,做大模型的入场券越来越高,特别是对于初创公司来说,想要与大厂或已经获得充分资源支持的新锐科技公司竞争,难度非常大。那么,对于初创公司而言,智能体是否是一种比较好的入局方式?

其次,现实生活中的知识并不都存在于非结构化的文本序列中。它们可能是一些服务流程或指南,仅从文字上理解可能不够深入。因此,我们需要通过场景搭建、场景优化以及高质量数据的合成,才能构建出专业能力。对于特定领域来说,专家的积累和特定场景的经验也是一种护城河。

Q

春节期间,DeepSeek的进展对全球人工智能产业界产生了不小的冲击和启发。从您的角度来看,DeepSeek做对了什么?他们的这次发布有什么样的意义?

虽然类似的方法在学术界也有人尝试,但此前并没有如此规模化的成功先例。DeepSeek的实践证明了这种训练方式的可行性,并为整个社区提供了一个很好的示例。在DeepSeek之后,我们看到开源社区中已经出现了许多复现版本。可以预见,在未来几个月内,会有更多成功的复现已经推广的出现。

总的来说,DeepSeek的这次发布是在公开信息中,首次对使用大规模强化学习训练语言模型的一次成功示例,在语言模型的发展历程中有里程碑的意义。

* Ouyang, Long, et al. "Training language models to follow instructions with human feedback." Advances in neural information processing systems 35 (2022): 27730-27744.

**https://github.com/deepseek-ai/DeepSeek-R1/blob/main/DeepSeek_R1.pdf

Q

这是不是我们现在所说的“端到端”训练?

魏忠钰:其实,“端到端”这个概念在神经网络学习时代就已经存在了。DeepSeek的这种训练方式更侧重于在多步决策的情况下,仅依靠最后一步的结果来完成整个长程模型的训练。这种方式不仅简化了训练流程,还提高了模型的探索能力和适应性。

Q

您认为现在大家讨论的强化学习、推理等技术,与人工智能的理性和人类意识之间有什么关系?或者说,到什么状态可以认为AI是有意识的?

Q

有用户在网上分享了他与AI的对话,他问AI是否认为自己已经超越了人类。AI回答说,“它很羡慕人类,因为它永远无法体会在大雨中狂奔的感觉,也无法闻到雨后泥土的芬芳”。您如何看待AI这种浪漫化的表达?它是否真正理解了中文语境中那些词语的浪漫意味?它是如何做到这一点的?

我们更应该关注的是,在希望机器智能发挥作用的场景下,它是否能够做得很好。例如,如果我们希望机器智能在情绪抚慰方面发挥作用,有了这个可衡量的目标,我们就可以评估它是否能够满足我们对浪漫追求的需求。至于机器自身是否真正理解浪漫的定义,可能并不重要。

如果我们真的想打破砂锅问到底,去探讨机器智能的产生本源,是否与人类智能相同?或是说它是否具有意识或情感?在当前阶段,这可能是一个难以回答的问题。因为我们连人类大脑的结构、意识如何产生、情感如何形成都还没有研究清楚,更不用说机器的智能和情感是如何产生的了。

Q

赫拉利这样的未来学家提出了一些假设,认为未来硅基智能可能会超越人类智能,甚至成为一种新的生命形态。您从严谨的科学角度,如何看待这样的预测和表达?

Q

您的工作中有很多与医疗等领域相关,因为这些领域更容易为人类创造福祉。能否举两个例子,说明您正在做的工作如何与老百姓的日常生活相关联?

Q

我们是否可以预见,未来AI医生也能正式上岗?如果AI成为某种角色,如何界定其发挥作用的边界以及它需要承担的责任?

Q

现在的大模型已经非常擅长语言表达,甚至可以随时开启“夸夸模式”。您认为未来机器是否可以帮助医生分担一部分情绪价值,满足患者对情绪价值的更多需求?

魏忠钰:在文字和语言方面,机器当然可以提供一定的情绪价值。然而,人与人之间的亲近感所蕴含的情绪价值,是机器无法提供的。因此,我仍然支持AI技术作为人类能力的延伸,辅助人类提供更好的服务,而不是完全取代人类。

Q

在大模型训练过程中,可能会带入人类的偏见。我们如何规避这一问题?

魏忠钰:大模型的偏见问题目前是学术社区广泛关注的课题。许多学术机构成立了伦理委员会,旨在评估相关研究和学术成果是否会加重智能技术的偏见,从而对社会产生负面影响。

从技术手段来看,价值对齐的模型训练是一些学者关注的方向。他们希望通过训练让语言模型对齐某些价值观,例如友爱、平权、减少歧视等。在训练过程中,可以使用符合主流价值观或目标价值观的数据对模型进行训练,以达到预期效果。

在模型应用过程中,可能需要对使用场景进行限定。例如,在招聘、司法等敏感场景中,应减少对模型输出结果的依赖,引入更多人类监督,从而缓解大模型偏见对社会不公带来的负面影响。

Q

您作为人工智能产业界的学者,同时与医疗机构和许多产业界伙伴合作。您如何看待企业侧和学术侧在不同环境中进行人工智能研究的优劣势?如何调配资源以推动研究进程?

3月5日,美国计算机协会(ACM)宣布,Andrew G. Barto(左)和Richard S. Sutton(右)因开发强化学习的概念与算法基础,荣获 2024 年 ACM A.M. 图灵奖。Andrew G. Barto,马萨诸塞大学阿默斯特分校信息与计算机科学系荣誉退休教授。Richard S. Sutton,阿尔伯塔大学计算机科学教授、Keen Technologies 公司研究科学家及Amii研究员。图源:quantamag

对于大语言模型或自然语言处理领域的学者来说,由于我们所关注的前沿技术已经进入产业阶段,如何调整学术和科研重心是当前需要做出的判断。在做出判断后,我们还需要进行长期的理论积累,以迎接下一波技术浪潮。

当然,也有许多学术从业者选择在当前阶段拥抱科技创新大潮,这也是一个可行的选择。

Q

对于神经科学领域的从业者,您有什么建议?

Q

您认为在这个过程中,人工智能会参与到神经科学的进程中吗?还是说神经科学的学者们需要主动去拥抱人工智能?

来源:人工智能学家

相关推荐