摘要:不去探究复杂的技术问题,DeepSeek至少有两点是外行普通人特别感兴趣的,一是坚持自主研发,通过与国际科技产业前沿的对话,形成自主的技术路线和科研组织模式,二是坚持开源技术路线,通过多原理和技术集成,实现了相比于许多闭源大模型的成本优势,这就能在较短时间内建
IPP评论是国家高端智库华南理工大学公共政策研究院(IPP)官方微信平台
引言:
与大城市越来越来寡淡的年味形成鲜明对照,DeepSeek在近期火爆出圈,引发了各界人士的热情关注。
不去探究复杂的技术问题,DeepSeek至少有两点是外行普通人特别感兴趣的,一是坚持自主研发,通过与国际科技产业前沿的对话,形成自主的技术路线和科研组织模式,二是坚持开源技术路线,通过多原理和技术集成,实现了相比于许多闭源大模型的成本优势,这就能在较短时间内建立了庞大的用户群。
这两点之所以特别吸引人,是因为在长期的大国科技竞争中,人们习惯了从科技的先进性以及先进部门的规模和实力等角度来看待“科技进步”,而DeepSeek同时推进自主和开源,使大家意识到,比起仅关注“先进性”而言,“自主做出能广泛使用的先进产品”毫无疑问是更重要的。
国际关系学者Jeffrey Ding在2024年出版了新著《科技与大国崛起》(Technology and the Rise of Great Powers),用“通用性技术扩散理论”挑战国际关系学界长期占主流地位的“先进部门理论视角”,指出从第一次工业革命到现在,能够促进先进技术更广泛扩散和应用的制度才是帮助一国崛起并成功超越原有大国的基础条件。Ding在他的书里专门辟出一章论述中美在人工智能领域的竞争,但是由于AI是一个仍处于不断探索过程中的先进技术,作者并没有梳理出针对当前状况有启发的创新形态或者制度机制。DeepSeek至少在这一方面展现出来令人振奋的亮点:借助开放的创新环境做出更有利于大众使用的先进技术产品。这个实践所蕴含的理论意义值得我们持续加以挖掘。
本期推送的文章,主要部分是我们在去年12月中旬完成的,在当时,人工智能前沿领域兴起的挑战Scaling Law的种种探索,还没有吸引国内观察者的广泛注意。郑永年教授在近期提出一个“中国能否成为开源国家”的问题,系统论述了加大开放力度对于中国的价值。我们将继续沿着这个提示推进思考——对我们来说,密切关注国际科技和产业前沿,是为了更好构建对于中国与世界发展有益的创新环境。中国迈向“开源国家”(开放创新的国家),需要更多地与世界融为一体,也需要更多地激励创新资源在国内不同人群、不同行业中的扩散。人工智能能否真正成为新一代通用性技术(GPT),还未有确定答案,但类似DeepSeek这样在这个方向上的探索努力,是怎么强调也不为过的。
——蒋余浩(华南理工大学公共政策研究院研究员)
多个迹象表明,人工智能前沿领域正步入新一轮技术变革期:作为当前人工智能主流技术路线的大语言模型(LLM),在最近遇到越来越多的挑战;在近期,国际科技产业界提出一系列技术变革的新探索和新理念。人工智能前沿领域的开放性、创造性和活跃度,已经激发了全球资本、科研和产业各界的新一轮热情。
值得我们重视的是,目前针对大模型而涌现的各种挑战,非但不会对美国在人工智能领域的全球领先位置造成威胁;相反,正是美国支持多样探索的制度环境,使得科技产业界的持续创新只会不断巩固和加强美国的领先地位。
这种倾向在特朗普实施“新政”之后,会变得更加显著。可以预见,特朗普的科技政策将是对内加强创新激励,对外实施更严厉的封锁和遏制,中国面对的竞争将会更加激烈。总之,相比于关注具体的科技发展细节,中国更需要认真研究激励前沿科技持续革新的制度条件。
美国总统特朗普日前指出中国人工智能公司DeepSeek为“美国产业的警钟”。图源:新华社
一、人工智能主流技术路线面临的困境
大语言模型是目前全球人工智能发展的主流技术路线,这一技术路线于2022年底因ChatGPT的推出而到达高峰。但是,在近期,这个技术路线陷入明显的发展困境。
(一)海量投入的边际收益显著下降,“Scaling Law”效力遭到一定质疑
“Scaling Law”是对过去数年以来大模型发展状况的一种经验性总结,指的是模型性能将伴随网络规模、训练时间、语料数据、算力投入的增加而指数级增长。
在“Scaling Law”引导下,开发大模型的费用越来越高昂。斯坦福大学发布的《2024年人工智能指数报告》指出:2017年最初的Transformer模型训练成本约为900美元;2019年发布的RoBERTa Large训练成本约16万美元;2023年OpenAI的GPT-4和谷歌的Gemini Ultra的训练成本则分别达到了约7800万美元和1.91亿美元。据估算,在过去8年,前沿人工智能模型的训练成本每年增长2至3倍,这表明到2027年最大规模的模型训练成本将超过10亿美元。
不同AI模型的训练成本和计算资源消耗,训练更大规模的模型需要巨大的计算资源。图源:AI Index Report 2024 - Stanford University
但是,高投入已经越来越不能保证必然带来高性能,“Scaling Law”的效力在近期遭遇质疑。2024年11月,一家有全球影响力的媒体机构发布详细报道指出,OpenAI、Google、Anthropic这三家科技巨头的大模型新产品并没有达到研发预期:与此前几代产品突飞猛进式的性能迭代相比,OpenAI新一代旗舰模型(内部定名为Orion)不能被认为实现了跨越式发展;Gemini和Opus3.5同样遇到类似情况,突破性并不显著。在近期,越来越多的技术先锋、企业领袖和知名投资人,都开始公开质疑“Scaling Law”的有效性。
据外媒报道,OpenAI旗舰模型Orion改进速度显著放缓,引发关于是否消耗更高的成本来训练AI的讨论。图源:新华社
(二)大模型产业集中化程度严重,“公-私”结构失衡影响未来的创新
在“Scaling Law”的牵引作用下,巨量资源和资本流向少数科技巨头,这造成了以这些科技巨头为核心的产业界掌握过强的主导权。科技界权威杂志Science在2023年3月刊登过一篇文章,对当前人工智能领域的资源占用状况(以人工智能人才、算力的流动分布为指标)和产品输出状况(以人工智能领域的论文、基准为指标)进行了数据化测度,指出:少数科技巨头已经获得了相比于高校、科研机构的绝对优势地位,这在科技发展史上还是首次。比如,2004年人工智能相关专业博士生只有21%进入产业界,而这一数据到2020年已增长到70%。
大模型产业领域的“公-私”结构失衡,至少带来了两个方面的严重问题:
(1)当前OpenAI和Google开发的大模型,虽然非常依赖海量的公共语料库(包括但不限于维基百科、开源软件、免费获取书籍等),但是却越来越封闭,很少生成新的公共产品;
(2)科技巨头控制技术研发与扩散,将影响社会对前沿技术的获取,进而不利于人工智能持续创新。
(三)大模型的多重社会影响逐步显露,利益冲突加剧,面临不确定性
近期,大模型技术在带来一定收益的同时,也产生了广泛的社会影响,而治理共识的缺失使得各类冲突频频涌现,使得相关的技术发展处于高度的不确定性状态。
例如,2023年5月至10月,美国好莱坞爆发了史上持续时间最长的一次罢工,编剧协会反对公司利用人工智能大模型来降低编剧的单位工资。尽管此次罢工以公司妥协(同意编剧协会要求,在三年内不降低编剧单位工资)为结束,但争议的关键问题之一却并未得到妥善解决:OpenAI等科技公司使用编剧剧本来训练大模型,是否损害了编剧的版权并因此需要做出适当的赔偿?
有评论指出,好莱坞编剧大罢工并非个例,实际上,不仅编剧协会,还有《纽约时报》、美国作家工会等也在2023年底陆续开始起诉OpenAI等科技巨头。目前,法院对这类案子的态度尚不明确,但可以明显看到,各个利益相关方与科技巨头的分歧已经相当剧烈。
此前,美国编剧工会(WGA)在2024年7月开展罢工,
主要原因就是AI对演员和编剧职业的威胁。图源:Wikimedia Commons
二、人工智能前沿领域的新探索
近期,国际科技产业界兴起对于大模型技术路线的反思,并因此涌现出一系列的探索实践和新理念,力图摆脱“Scaling Law”面临的发展困境。
第一类新探索:仍然坚持“Scaling Law”的有效性,但对这项定律做出重要调整。
典型代表是OpenAI于2024年9月发布的o1 model雏形。正如OpenAI指出的,o1 model是其探索不同于GPT技术路线的新尝试,最重要的差别便是实现“推理时计算”而非“预训练时计算”。
具体来说,o1 model将一个大问题拆分为一系列小问题(即形成推理链条,chain-of-thought),并允许模型在不重新训练的情况下,通过推理时的额外计算来提高性能。这种新的路线更强调对人类推理性认知方式的模拟,能够解决现在的人工智能不能维持答案的一致性以及不能实现长期目标规划等问题。o1 model并没有完全放弃“Scaling Law”。
也就是说,同样还是依赖海量数据、网络、时间和算力进行预训练,但是在此基础上,o1 model还增加了“推理”的数据、时间和算力,因此可以说是形成了一个大模型的升级版。也正是因为有了o1 model这样的新探索,微软CEO认为,“Scaling Law”并没有达到瓶颈,而是可能以不同的面貌和形式出现。
OpenAI首席执行员阿尔特曼(Sam Altman)近日在接受采访时表示,面对DeepSeek的开源模型的挑战,OpenAI必须要考虑制定不同的开源策略。
第二类新探索:部分接受“Scaling Law”可能失效的判断,转而综合多条技术路线的优势,对冲Scaling Law边际效用减弱的不足。
典型案例是谷歌Deep mind的AlphaGeometry。众所周知,人工智能发展史上长期存在着符号主义与联结主义这两条对立的技术路线,但符号学派早在1980年代末期就已经没有了影响力,而AlphaGeometry是将符号模型与大语言模型进行了结合,在科技原理上找到了两条对立的技术路线的结合点。
AlphaGeometry的创新性在于,它基于推理数据库创造出大量合成数据,并基于合成数据的预训练来找到辅助线构建的模式与规律,以此构成针对Scaling Law的修正。从实际效果上看,AlphaGeometry提升了欧式几何题目(平面几何)机器证明的效果(如IMO30道题目中做对25道),且通过计算实现了添加辅助线的推理能力,从而使证明过程可解释。
第三类新探索:完全放弃“Scaling Law”,对深度学习等当前AI主流技术路线进行根本改变,以探索新的技术可能性。
这方面的代表性案例是杰弗里·辛顿提出的“非永生计算机”理念(改变当前软硬件分离的“永生计算机”设计)。辛顿指出,传统的“永生计算机”是以计算机硬件与程序软件相分离为前提,程序(包括权重和网络)包含了所有的训练知识,而这些知识与硬件无关,因此硬件可以支撑不同的程序软件进行运行(也就是实现了计算机的“永生”)。
但是,辛顿分析认为,这种“永生计算机”的设计,无法解决目前需要消耗巨量能源来进行深度学习的问题,由此需要探索一种新的可能性,改变传统计算机结构。权重或网络的调整不仅在程序层面,而且可以通过采用一种“前向-前向算法”(Forward-Forward Algorithm,FF算法)的新神经网络学习方法,更好地解释大脑的皮层学习,并且可以在极低的功耗下模拟硬件,从而使这种调整延伸至硬件层面,颠覆传统的软硬件分离的计算机形态。也就是说,计算机结构会随着学习过程而改变,并随着学习的变化或演进或结束(因此,计算机不再是“永生”的)。辛顿提出,非永生计算机可能是解决大模型在当前需要消耗巨量能源问题的“唯一可能性”。
诺贝尔奖得主杰弗里·辛顿曾设想一种情况,即人工智能系统能够编写代码修改自己的学习协议。图源:Wikimedia Commons
三、激励人工智能技术变革的制度条件
上述新的技术变革还处在探索阶段;但是,全球资本、科研和产业等各界已经被激发起新一轮热情,由此展现出支持多样探索的制度条件的独特重要性。目前针对大模型发展困境而涌现的各种新探索和新理念,非但不会对美国在人工智能领域的全球领先位置造成威胁;相反,正是美国支持多样探索的制度环境,使得科技产业界的持续创新只会不断巩固和加强美国的领先地位。
(一)开放的制度环境,是美国始终保持科技领先地位的重要原因
在开放的制度环境下,“Scaling Law”展现出来的种种问题都会引起科技产业界的重视,并且针对这些问题形成有针对性的探索。比如,是否可能以合成数据来解决训练语料被耗尽的问题,是否可能通过改变计算机软硬件分离的结构来解决大规模运算耗能过大的问题,是否可能在先进芯片领域创造出新的替代性产品,等等。
目前,这些探索都还没有形成结论,既不能确定大模型技术路线是否已经发展到了极限,“Scaling Law”的效力是否真的已经耗尽,也无法判断哪一条技术路线可能成为未来人工智能发展的主流。但不管怎样,在开放的制度环境下,来自世界各国科技产业界的各种新理念和新尝试,在美国都有得到检验的机会,由此形成的多技术路线之间的相互竞争、相互促进,维持了美国在科技前沿领域的活跃度和创造力。
(二)产业与科研的高度协同,是保障美国在人工智能领域推进前沿技术发展的基础
在人工智能领域,所谓基础科研与产业应用的界限十分模糊。科技巨头目前拥有的基础研究能力及产业转化能力,已经远远超过了学术界和政府机构,由此生产出的科技产品也更具有通用性和应用性,能够在世界范围内产生更大的影响力。
所以,美国少数科技巨头形成的高度集中化的产业状况,虽然衍生出相当大的社会问题,但这些巨头进行的自我技术迭代以及相互之间的竞争,却是保障美国推进前沿技术发展的重要基础。
重大的科技产业创新需要巨量资源的投入,而且,在科技探索阶段,也无法仅仅依靠财政资金的投入。因此,如同著名经济学家熊彼特(Joseph Schumpeter)说过的那样,没有“寡头之间的竞争”,就很难有在重大科技产业项目上的持续创新,即通过“创造性毁灭”保持领先地位。
(三)激励广泛的创新和竞争,是美国维持社会活力的重要保证
各类挑战大模型技术路线的新探索和新理念,在美国的制度条件下都能得到一定的资助,这是美国开放性创新环境带来的好处。联邦和州政府的财政资助、各类风险投资基金、公益基金、社会基金、企业资金等,构成了极为丰富而灵活的科技产业发展支撑。
就目前而言,是否有可能从少数科技巨头之外创造出新的技术路线,还没有明确的答案,但是无论怎么说,资本对于各类新探索的关注,给了各种有创造力的尝试接受市场检验的机会。
如李飞飞教授在2024年4月宣布首次创业成立World Labs公司(主攻不同于大语言模型的“大世界模型”),在7月的市场估值就突破了10亿美元,9月即完成了2.3亿美元的巨额融资,投资方既包括硅谷知名投资机构a16z、NEA,加拿大风投公司Radical Ventures,以及英伟达公司的风险投资部门等专业科技投资机构,也有许多AI领域知名专家创设的科技企业。在这些投资方中,甚至还有World Labs力图挑战的科技巨头的身影。
根据相关报道,World Labs在成立短短4个月内便成长为估值超10亿美元的独角兽公司。图为斯坦福大学著名人工智能教授李飞飞。图源:新华社
概况地说,美国开放的创新制度环境,为人工智能前沿领域的不断革新创造了条件。美国的人工智能科研和产业没有停下脚步,反而是以更具创造力、更具探索性、更加能吸引巨量资源投入的姿态在突飞猛进。这种新的技术变革探索,不会撼动美国的领先位置,相反会不断巩固和加强其在世界前沿科技领域中的统治力。
在特朗普赢得大选之后,宣布将大幅“松绑监管”、激励硅谷AI研发、增加对外国的科技封锁和遏制力度。这种趋势应当引起我们的高度重视。在当前,国际科技产业界对于科技和产业问题的敏感度、对于新技术路线的创新性思考,以及国际资本对各种新探索的趋之若鹜,都表明一种新的科技发展范式正在崛起。
我们需要推动体制机制变革,适应、建立并且用好这一新范式。如果不跟上新一轮技术变革的浪潮,就会很大程度上有被排挤在未来科技发展主流趋势之外的危险。
四、我国人工智能发展政策的问题分析
中国人工智能市场规模近年爆发式增长,核心产业规模、市场增长潜力以及科研领域的各项指标都已处于世界前列水平。近期更有爆火出圈的DeepSeek,在大幅度降低成本之后,依然能够实现性能上接近OpenAI等科技巨头推出的闭源大模型。
但是,毋庸讳言,与美国整体居于领先水平的人工智能产业相比,中国的人工智能发展创新性依然不强,在制度和政策层面方面,还存在许多可持续改善之处。最新的斯坦福大学《人工智能全球活力工具》报告显示,中国与美国之间在人工智能领域的差距正在拉大。
(一)“重监管”的惯性思维,不利于创建高度创新的环境
中国长期存在一种“重监管”的惯性思维,即:在相关领域的科技和产业没有发展起来时,就急于出台监管措施;之后又由于监管措施本身制定得过于粗疏,而经常不得不在事实上进行“变通适用”或者“有法不依”。据不完全统计,在大语言模型兴起之后,仅在2023年9月至年底的四个月时间里,部委层面和各地政府就出台了近30种监管举措,涵盖面涉及国家安全、科技伦理、个人隐私、数据保护、版权纠纷等。
然而,当时的中国大模型研发还处于“跟风”状态,应用方面也刚刚开始有所探索,这些监管举措担心的问题还没有真正出现,只是一种猜测或想象中的问题,因此我们看到,监管政策的表述通常是比较原则性的,没有操作细节,即使当真出现了相应的侵权行为,也无法依靠这些匆忙出台的举措来进行处理。但是,这些表述严厉的政策文件,对于产业界产生的影响却是真实的。
近年,许多大企业以及一批人工智能独角兽企业都热衷于启动大模型“出海”,其中一个理由,就是海外的制度环境相对稳定,不会像中国政府这样可以轻易对创新环境进行大动作的干预。
当然,这并不是说对于人工智能发展中潜藏的各种风险不要实施监管;而是需要更全面、更深刻地理解“什么是适合创新的监管”。2022年,有一位欧洲学者在牛津大学出版社出版了一部著作,很有影响力。作者梳理了美国、中国、欧洲的数字技术监管规则,指出美国是“市场驱动型监管体制”,中国是“国家驱动型监管体制”,欧盟是“权利驱动型监管体制”。作者认为,根据各地不同的制度和文化条件,这三种监管都有其优点和缺点。这部著作引起了很大的关注,但是,我们认为作者没有提供真正富有启发性的见解。
实际上,“适合创新的监管”一定是尊重市场机制的,或者更直接地说,是“发展先行的监管”。欧盟国家在新一代高端科技领域没有培育出有规模的企业,因此在规则制定过程中没有产业界发出的声音,相关的监管规定通常围绕抽象的“权利”而展开,结果是更加严重地限制了人工智能等新兴科技产业的发展。
在大语言模型兴起之后,欧盟也出现了一些专门从事应用的企业,以相对小的参数量追求普及效果,如欧洲最大的私人人工智能实验室Silo AI、法国的Mistral AI、德国的大模型企业代表Aleph Alpha等,在应用方面表现出发展潜力。但是,由于受到欧盟监管规则的制约,这些企业难以获得较大发展,近期都面临被美国大公司收购的情景。欧盟委员会2024年发布了研究报告《欧洲竞争力的未来》,提出在人工智能等多个新兴技术领域追赶美国和中国。然而,现实中欧盟面临诸多挑战,如产业基础薄弱,人才大量流向美国、加拿大等北美国家,因此,欧盟能否在这些领域取得显著进步,目前还难以确定。
美国的监管体系是围绕着创新和竞争展开的。在很多案例中,发展与监管之间也经常出现表面看来难以缓和的矛盾,但是,监管机构通常偏重于激励创新和竞争。比如训练大模型的数据语料极为庞大,容易出现版权争议问题,美国目前没有确立统一的监管思路,大量关于“数据权属”的讨论也仅停留在学术研究中,没有对监管政策和司法实践形成影响。这种模糊的态度的确解决不了已经发生的社会利益冲突,但却为人工智能的进一步发展创造了空间,而随着利益争执的日益显著,美国法律体系中的弹性特征也会相应发生作用。
如2024年11月7日,美国纽约南区联邦地区法院以“原告欠缺美国宪法第3条规定的诉讼资格”为理由,驳回了两家公司针对OpenAI的版权侵权起诉。这是一个以“程序问题”为由的处理方式,既为法律界进一步探讨如何应对相关问题留出了余地,又不至于阻断其他企业或个人实施侵权诉讼的努力。
中国需要避免陷入欧盟的当前发展状况,应当针对创新领域大力实施“去监管”的改革。
就新兴产业发展来说,中国和美国领先欧洲太多了,如胡润研究院近日发布的《2024全球独角兽榜》(Global Unicorn Index 2024),列出了全球成立于2000年之后,价值10亿美元以上的非上市公司。其中,美国有703家,中国有340家,欧盟国家仅有109家,连英国都有53家,印度有67家。
据《2024全球独角兽榜》,中国拥有全球1/4的独角兽企业,主要来自人工智能、半导体和新能源产业。
但是,中美相比还有相当的差距。另一家专业调查机构的报告指出,美国在通用人工智能(AGI)领域处于遥遥领先的地位,诞生了如xAI、OpenAI等14家大模型相关的独角兽企业,推出了包括AlphaGo、ChatGPT系列等重大技术成果。其中,估值最高的OpenAI,其估值达到了惊人的290亿美元,成为全球第三大独角兽企业。而中国的生成式AI和大模型相关的独角兽企业共有8家,其中估值最高的企业目前估值约30亿美元,且成立时间仅一年左右。
特朗普“新政”的理念是对内增强创新激励,对外增大封锁和遏制,如果我们不创建更为开放的创新环境,有可能“逼迫”我们培育的独角兽及其他优质企业纷纷赴美发展,导致我们与美国的差距越拉越大。
(二)政策协同性不强,改变不了科研与产业“两张皮”状况
我国的科技发展理念上长期存在一个误区:以“基础研究→应用研究→产业转化”的线性思维来看待科技创新活动,人为地割裂了高校、科研院所的科研与产业发展之间的有机联系。在人工智能领域,线性创新思维的危害更为严重,因为人工智能在基础研究与应用研究之间的界限更加模糊。
其实,我国早在2017年发布的《新一代人工智能发展规划》中,就已经提出“坚持人工智能研发攻关、产品应用和产业培育‘三位一体’推进”的部署。2017年11月,科技部、发改委等15个部委组建了新一代人工智能发展规划推进办公室,并推出了“国家新一代人工智能开放创新平台建设”计划。
2022年7月29日,科技部等六部门印发了《关于加快场景创新以人工智能高水平应用促进经济高质量发展的指导意见》。但是,在推进的过程中,由于各个配套性政策相互之间缺乏足够的协同性,既不能克服各部门各自为政的顽疾,又难以深度融入多样的经济社会发展需求,产学研之间的阻遏依然难以打通,科研与产业仍是“两张皮”。
例如,截至2024年,已批准建立了23家国家新一代人工智能开放创新平台,但这些平台多依托百度、阿里云、腾讯、科大讯飞等头部领军企业建设,仍然是按照线性思维加以推进,研究成果的转化成本极高,对广大区域和广大行业的具体发展难以形成显著帮助。而且,在该计划的推进中,由于缺乏有效的抓手和引导,虽然平台定位为加快人工智能应用创新,然而却不能推动上下游产业的联合,尤其无法与高校等科研机构建立联动。
而在基础研究方面,2018年4月教育部印发了《高等学校人工智能创新行动计划》,清华、北大等几十所重点院校相继成立人工智能研究院,同时,国家在一些条件优异的城市部署了专门负责人工智能基础研究的国家实验室。但是,经过数年的运作,除了少数几家机构能够在地方政府的支持下,与当地领军企业建立合作关系之外,大部分研究机构与产业发展是脱节的,科研成果得不到接受市场检验的机会,从而无法对行业产生影响力。
(三)对多元探索激励不足,难以形成不断推陈出新的生态
目前,就人工智能产业发展和研发资源分布而言,在区域层面,我国呈现出明显的东强西弱态势。科技部新一代人工智能发展研究中心2023年发布的《中国人工智能大模型地图研究报告》显示,西部地区除成渝经济区与京津冀、长三角、粤港澳大湾区并列为人工智能算力四大领先发展核心区域外,其他城市区域全面落后于东部领先地区。
根据《中国人工智能大模型地图研究报告》,北京、广东、浙江、上海等地的大模型数量最多。图为全国范围内的算力基础设施分布情况。
经济发达区域更容易吸引科技资源的涌入和培育新的科技资源,这是客观事实,但是,公共政策需要打破线性创新思维,采取一些激励措施来引导科技资源基于各地的发展需求探索新的科研方向。
实际上,美国联邦层面已经在实施这样的激励措施。2019年10月由美国国家科学基金会(NSF)统筹,联合多个部门发起了美国国家人工智能研究院(NAIRI)项目,在美国五大区域各布局科研资源,研究方法专门强调“基础研究与应用启发性研究一体推进”,研究领域涵盖了多样应用需求:不仅有发达地区领先的大数据、机器学习、算法优化等应用方向,还包括了农业、教育、网络基础设施等在欠发达地区有广泛应用的领域。
到2024年,NAIRI在美国和世界其他地方建立起了一个由100余家资助组织、500多个受资助机构和合作机构、约700余名专家参与其中的合作网络,形成了美国最大的人工智能合作生态系统。
我国还没有形成健全的激励多元创新探索的制度机制。
第一,创新的资助渠道仍然相对单一。国家的大量科研经费投入高校和科研院所系统,多数成果对经济社会实际发展没有产生直接作用。在人工智能发展领域,除上海、杭州、武汉、广州、深圳等少数城市有政府参与发起和支持运营的人工智能研究院之外,绝大多数地方并没有针对人工智能研发机构的组建制定明确的规划和提供经费支持;
第二,研发主体同样相对单一,产业界缺乏创新性的基础支撑。中国的人工智能相关专业人才过于集中在高校和科研院所,而这些系统目前的考评措施和激励机制,较难引导大量人才投身于支撑产业发展的科研工作。
近年,在大语言模型崛起之后,中国的人工智能企业涌入这个单一的赛道,形成“百模大战”的浮躁场面,正说明了中国人工智能企业多数缺少创新性科研。据统计,在2023年10月到2024年9月的一年时间内,中国就发布了238个大语言模型,相当多产品性能雷同。DeepSeek-V3的横空出世,一度让媒体惊叹,但是DeepSeek-V3更大的成就是实现了多原理和多技术集成,可以算作工程学意义上的创新,还没有形成引领原创性探索的效果。
五、开放的创新环境的特殊重要性
美国近年吸引了大量中国AI科技人才赴美工作,进一步加剧了中国人才的流失。有统计显示,在过去10年里参加 NeurIPS大会(神经信息处理系统大会,是机器学习和计算神经科学领域的国际顶级学术会议)的2800名中国AI人才当中,约有75%目前在中国以外的地方工作,也就是说,有2000名左右的AI人才已经离开中国,其中大约有 1700人(在流失人员中占比85%)人去了美国。
在特朗普就任美国总统以后,会在其国内实施“松绑监管”,加速硅谷的AI研发,同时任命对华持强硬立场的人士出任科技、产业和能源等决策部门的主管。当前,中国最需要防范的就是美国通过内部改革,更大力度地吸引全球资本和科技产业资源涌入,造成中国科技人才和企业的大量流失。
此外,美国针对中国的科技遏制政策也在不断增强力度,特别是对半导体、芯片、AI算法等核心技术的封锁,使得中国在机器人核心技术的突破面临巨大挑战。其他国家和地区,尤其是德国、日本、韩国等制造业强国,也在大力推动人工智能、智能制造和机器人技术的研发,直接影响着全球市场的分配。
面对这种紧迫的压力,中国如果不大力构建开放的创新环境,推动人工智能等先进技术的开放创新、自主研发和产业化,未来可能会在全球产业链中处于不利地位。这里尤其需要强调“开放”对于构建良好的创新环境的重要性。
(一)只有“开放”才能科技“自立自强”
人工智能领域日益增强的技术变革趋势,要求我们构建更加开放的制度政策环境加以应对。而特朗普上台所倡议的对内加强创新激励、对外加强科技遏制,同样要求我们在开放的创新环境中积极进取。事实上,“开放”是真正实现科技自立自强的基本制度条件,“开放”也是冲破科技封锁和遏制的唯一手段。
需要指出,正是由于美国的遏制政策,导致我们国内出现了一股逆反情绪,把“科技自立自强”的目标曲解为“关起门来做科研”。但是我们必须认识到:
第一,“关起门来做科研”是做不出对经济社会长远发展有用的自主性科研的。
我们不从理论上来论述“思想市场对于科技进步的重要意义”等等基本院长,仅例举一个事实。2023年初,中国科学技术出版社出版了俄罗斯高级记者季莫费·尤里耶维奇·斯科连科的著作《苏联发明史:从1917年到1991年》中译本,梳理了许多苏联取得的基础研究领域以及高新科技方面的重大成就,但是这些在封闭状态下实现的世界领先水平的科研,与外部世界完全脱钩,与国内的生产实践也完全脱节,最终只能被束之高阁,形成不了“自立自强”的态势。
眼下,由人工智能激发起的新型科技发展范式,已经不允许在封闭环境下从事科研和产业发展了,全球的资本、数据、人才、科研和工程力量都被吸引到这些新产品、新理念、新技术变革探索周围,不去适应、建立并且利用好这个新的科技发展范式,就有被排挤出世界主流科技发展潮流之外的危险。
第二,只要我们不自己主动地关起门来,他人的遏制政策也起不到把我们封锁住的效果。
有很多细节证明了目前全球资本、科技、产业存在着复杂的关联性。比如,有消息人士指出,在美国联邦政府最近公布的新一轮芯片出口管制名单中,中国的长鑫存储等企业没有被列入,部分原因就是这些企业的主要供应商是亚洲最大半导体设备制造商之一东京电子,这家跨国企业通过它在华盛顿的商业伙伴影响了白宫的决策。
美国对华持强硬立场的政客们自然也能认识到全球利益关系网的复杂性,所以在近年不断推动政策,要把台积电等先进制造类企业引入美国本土,以便为实施更严厉的科技遏制举措做准备。然而,要引入这些企业需要投入巨量的资金,而且这些先进制造、科技类企业对于从业人员的技能要求相对较高,不会直接给一般选民创造就业机会,因此,诸如此类“为进一步遏制”而不计成本实施的举措,都有可能在美国国内引发冲突、加剧美国社会的分裂,通常不易落地。
所以,这一点必须得到反复强调:加大开放力度,才是应对当前内外发展环境剧变的唯一正确选择。我们的主张并不是反对“科技自立自强”,恰恰相反,我们认为,只有通过体制机制改革,加大对内对外的开放程度,才能真正在各方面实现“自立自强”。
(二)必须加大对内对外的开放力度
当前,中国最需要防范的,是美国通过内部“松绑监管”来更大力度地吸引全球资本和科技产业资源流入。中国需要大幅实施制度创新,充分激发京津冀、长三角、大湾区、成渝经济圈等等区域在科技资源、产业基础、经济实力方面的优势潜力,以创建新时期的“经济特区”的举措来保障开放性,动员海内外资源,打造人工智能创新发展高地。
第一,支持各地既用好已有的优惠政策,又积极对接各类国际新兴规则。
一方面明确形成“国家政策已经规定的内容,地方可以直接进行适用”的支持性举措,另一方面推动各个区域借助中央的政策赋能,积极对接国际新兴自由贸易规则和金融规则,以及《数字经济伙伴关系协定》(DEPA)等最新国际协议的开放性规定,吸引海内外创新型企业、人工智能独角兽企业落地,创建人工智能全球优质资源聚集区。
同时,大力探索新型监管规则,如放松互联网“防火墙”等监管措施,激励开源社区等第三方基于全球的可用数据,独立建立公共数据语料库,支持各类人工智能企业借助公共数据语料库进行模型训练,并且探索应用方案。
第二,创新财政资金的使用方法,形成以财政资金的投入为引擎,链接社会资金共同投入的多元资助格局。
通过税收优惠、奖补等多项举措支持各类资本投入人工智能科研、产业化发展以及基础设施建设等领域。同时,鼓励各类资金围绕产业发展需要,建设人工智能公共服务平台,提供数据共享、模型训练、测试验证等服务,降低企业应用人工智能技术的门槛。此外,设立专项激励措施,鼓励企业和科研机构合作建设面向全社会开放的AI计算平台,为各行业提供计算资源支持。
第三,大力发展中介机制,加强科研机构对接市场的能力。
一是发展“商业中介”助力市场对接。支持商业咨询、市场调研、品牌策划类商业中介机构与人工智能企业合作,对于促成企业重大合作、市场拓展项目的商业中介给予奖励,促使中介机构积极为企业挖掘市场机会,让科研团队专注于技术研发;
二是鼓励青年学生从事“科技中介”业务。提供税收优惠、财政补贴等激励政策,支持懂技术的青年学生创办专业的科技中介服务机构,链接高校和科研机构的实验室、研究院所等等,推动科研机构和企业之间的合作,促进人工智能技术在各行业的落地。
第四,建立“全链条培育人才”的创新性人才政策。
打破按照学历、学位、履职经历等标准实施人才招聘、发放人才奖补的方式,突出跨专业性、协同性和实用效应。一方面,通过事前支持创业创新、事后进行绩效奖励的方法,鼓励各类优秀人才干实事、出佳绩。
另一方面,联合高校科研院所和大型企业,广泛建立先进技术培训平台,并且建立奖补政策,鼓励各行各业的青年人积极学习人工智能等先进技术知识,将人工智能等先进技术与各行各业既有知识相结合,推动人工智能等先进技术产品在千行百业中应用。
第五,建立健全科技帮扶机制,带动欠发达地区共同发展。
一是建立科技帮扶结对。推行“强企+弱企”结对帮扶模式,组织人工智能龙头企业与欠发达地区相关中小企业一对一帮扶。政府对帮扶成效显著的龙头企业,在税收减免、项目申报优先度上予以倾斜。对被帮扶企业,给予免费技术培训、设备补贴等支持;
二是加强对欠发达地区的科技人才培养。支持发达地区的科研团队深入欠发达地区开展技术培训与合作,培育人工智能专业与具体行业领域交叉的复合型人才;
三是鼓励科研机构与企业合作,共同建设研发中心,推动人工智能技术在欠发达各行业的普及与应用,尤其是在制造业和农业等行业中,帮助当地提升整体技术水平,促进区域协调发展。
本文得到郑永年教授的悉心指导,同时得到华南理工大学多位专家学者的指导和帮助,华南理工大学公共管理学院在读博士生刘金程对本文亦有贡献,特此感谢!
*本文作者:
贾开,上海交通大学国际与公共事务学院长聘副教授、广东新质生产力政策研究中心研究员。
蒋余浩,华南理工大学公共政策研究院研究员、广东新质生产力政策研究中心主任。
)
戴明洁,华南理工大学公共政策研究院副研究员、广东新质生产力政策研究中心研究员。
)
张弦,中国移动研究院中移智库管理与运营中心研究员、广东新质生产力政策研究中心研究员。
郑永年:中国能否成为一个“开源国家”?郑永年×黄铠×袁晓辉×刘磊×刘少山:人工智能社会的机遇与挑战蒋余浩:中国人工智能创新发展路径研究——基于“非线性创新观”的探索关于IPP
华南理工大学公共政策研究院(IPP)是一个独立、非营利性的知识创新与公共政策研究平台。IPP围绕中国的体制改革、社会政策、中国话语权与国际关系等开展一系列的研究工作,并在此基础上形成知识创新和政策咨询协调发展的良好格局。IPP的愿景是打造开放式的知识创新和政策研究平台,成为领先世界的中国智库。
来源:IPP评论