摘要:今年1月末,美国《华盛顿邮报》刊发了谷歌前首席执行官、美国人工智能国家安全委员会主席埃里克·施密特的署名文章,题为“中国开源人工智能会终结美国在该领域的霸主地位吗?”
今年1月末,美国《华盛顿邮报》刊发了谷歌前首席执行官、美国人工智能国家安全委员会主席埃里克·施密特的署名文章,题为“中国开源人工智能会终结美国在该领域的霸主地位吗?”
当时,DeepSeek刚刚推出的R1大模型,凭借其低成本和高效能迅速引发全球行业巨震。施密特写道,“这是一个特殊的时刻,一家中国公司成为事实上的开源领导者”。
游戏科学创始人冯骥更是有句知名的论断:横空出世的DeepSeek,可能是国运级别的科技成果。
在技术跃迁的时代,中国的AI发展究竟要走什么道路?如何应对AI领域的“奥本海默时刻”?全球又该怎样共同合作,更好地治理AI相关问题?
围绕这些问题,3月27日,观察者网与中国互联网治理论坛(中国IGF)共同举办了最新一期的科创类谈话节目《心智对话》,主题为“AI与国运:技术跃迁、产业革新背景下的全球治理”。
原中国社科院信息化研究中心主任、中国管理科学学会学术委员会副主任姜奇平,中国科学院自动化研究所研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能顾问机构专家曾毅,中国互联网络信息中心副主任、联合国互联网治理论坛多利益相关方咨询委员会、中国IGF常务副主任张晓等参与对话。
(左起)张晓、姜奇平、曾毅 观察者网
中国AI到底往哪儿走?要警惕日本的例子
从东西方文明取向差异方面入手,姜奇平表示,中国文化追求天人合一,恰恰没有美国的计算主义所固有的缺陷。
他认为,现在中美AI的发展可能到了一个转折点上,即使不说分道扬镳,下一步也会各有侧重。中国的AI和美国、包括美国华人搞的AI,都有可能显出差异。他举例说,美国和日本汽车产业竞争的时候,美国车废油,日本车省油,“这就是根深蒂固的东西”。“因为美国人不觉得石油是个障碍,可日本人会对石油的运输不放心。”
原中国社科院信息化研究中心主任、中国管理科学学会学术委员会副主任姜奇平 观察者网
张晓则回顾说,东西方在不同的文明背景下,数字化发展路径也有所不同,中国是陆地文明,关注和睦相处,而海洋文明更倾向于零和博弈。
另一方面,欧洲比较重视个人的权益隐私,而网红经济,是一种熟人经济、信任经济。
曾毅提醒说,中国的AI发展可能仍然存在“重大缺陷”,“我们本可以拥有截然不同于美国的AI愿景,但是我们目前的技术发展完全是沿着美欧的思路在走”。
他以日本AI发展的愿景和实践为例说,全世界只有日本的人工智能学会在伦理原则的最后一条写明:“AI必须通过和学会成员相同的方式遵守上述规则,以便成为社会的成员或准成员。”
然而,尽管提到了AI成为“社会准成员或者人类伙伴”的可能性,日本在发展AI技术的过程中,并没有为了这一目标而采取任何实际的行动,仍然将AI当作构造工具的方式。
曾毅表示,AI不会仅仅停留在工具阶段,未来会成一种living becoming,即有生命的演变体,并且演化速度会非常快。可是,“一个作为工具的AI不可能自主演化成一个社会的准成员”。
“我不认为Deepseek的方向是颠覆性的,Deepseek比OpenAI多讲了实话,但是两者的技术方向并没有本质上的不同。”曾毅表示,尽管Deepseek已经告诉外界,发展AI“不需要那么高算力”,“也不需要那么多数据”,但正如许多科学家指出的那样,这种生成式人工智能大数据的方式、切分(tokenize)的编码方式依然不是“面向未来的人工智能”。
按照曾毅的建议,“如果中国真的想(在AI领域)迎来自身的颠覆性时刻,要做一次周期长达5到10年的重新布局,以重塑AI发展的未来。”
姜奇平同样强调,目前,AI发展已经到了向西还是向东的节点:向西,将走进“动物世界”,向东,将拥抱“科技向善”。
中国AI发展如何应对“奥本海默时刻”?
人工智能的高速发展已经是不可逆的文明趋势,机遇与风险并存,自由与束缚交织。
导演诺兰在谈到他的传记电影《奥本海默》时便说:“担忧人工智能的人都对《奥本海默》感兴趣。很多顶级的人工智能研究者,将当下视为他们的‘奥本海默时刻’,他们将奥本海默看作一个警示故事。”
张晓也说:“人工智能出现的时候,我们就觉得它是‘奥本海默时刻’。”AI发展的风险到底在哪里?没有人可以断言。所以张晓强调,要“边发展边治理”,“同时治理要给发展留下足够的空间”。
中国互联网络信息中心副主任、联合国互联网治理论坛(IGF)多利益相关方咨询委员会、中国IGF常务副主任张晓 观察者网
AI的治理,是否可以从互联网治理中借鉴经验?张晓认为,最重要的就是多利益相关方模式。“之前我们说管理的时候,更多地是垂直的、自上而下的,而我们说治理的时候它更多地是一个平面。”
“新技术是全球化的,不仅涉及政府,还有平台企业、用户个体。在互联网刚刚发展的时候,因为技术门槛很高,先由科学家、技术社群做一些标准,然后商业介入,最后随着互联网承载了非常多应用以后,看到政府就强势介入,这个非常重要,因为它承担着公共角色。”
曾毅补充说,需要区分好“发展”和“野蛮生长”的关系,AI的技术发展是有方向的,而“野蛮的生长是没有方向的”。
“比如说,我要训练一个更强大的AI模型,需要利用世界上的所有数据,包括所有人的个人数据,这意味着牺牲掉所有用户的隐私权。”曾毅说,这就不是发展,而是“野蛮的生长”。
他强调,对AI的治理从来不会影响其发展进程,而是以护航者的角色避免AI“野蛮生长”。同样,注重AI安全也不会影响其发展。
在他看来,所谓“平衡安全和发展”的说法存在问题。“平衡是相互掣肘的意思,好似在说,注重安全,发展必然受阻。”
但是根据曾毅团队近期的实验,人工智能大模型完全可以在几乎不影响问题解决正确率的前提下,将安全属性提升20%-30%。
超级智能看待人类会和人类看待蚂蚁一样吗?
2023年3月,美国生命未来研究所发表公开信《暂停巨型人工智能实验》,提出所有AI实验室立即暂停训练比GPT-4更强大的模型至少6个月,以便为制定安全协议和治理框架争取时间。曾毅也大体认同这份倡议的内容。
“当时很多人问我,我国都还没有什么像样的生产式人工智能,你为什么要签字?是不想让中国发展吗?”
中国科学院自动化研究所研究员、人工智能安全与超级对齐北京市重点实验室主任、联合国人工智能顾问机构专家曾毅 观察者网
曾毅解释说:第一,这封公开信限制的是比GPT-4更强大的模型,但中国当时连GPT-3级别的模型都没有,“根本不是去限制中国发展的”。第二,为公开信签字属于自愿承诺,他并不代表中国,而是作为科研工作者认识到了AI发展的风险。
西塞罗(CICERO)是美国Meta公司开发的一款AI系统,曾在2022年8月至10月的线上《外交》游戏比赛中取得过极佳的成绩,被称作“第一款在外交领域以人类水平进行游戏的人工智能”。
曾几何时,外交被认为是AI绝对无法接管的工作。曾毅也说,西塞罗在外交博弈上的进展令他感受到危险。在应对AI灾难性风险能力还很薄弱的当时,“不应当用AI来做这些事”。
事实上,自AI进入人类视野以来,人类对与AI关系的忧虑就如同一道难以驱散的阴影,始终笼罩在文明的上空。
2024年一项针对在顶级AI领域发表过论文的作者的调查显示,37.8%-51.4%的受访者认为,高级AI导致人类灭绝等严重后果的可能性至少为10%。
2001年上映的科幻电影《人工智能》海报,这部由库布里克筹备多年、又经斯皮尔伯格接手执导的电影融合了科幻、伦理与情感。
AI发展的终极目标是超级智能,这意味着这种非人类的智能体将在几乎所有认知领域全面超越人类的最高水平。
“有些专家说,未来AI方方面面都会超越人类,但是仍能被人类所管控,”曾毅对此不以为然,“如果AI的智慧水平远远超过人类,可以同时部署几万台具身智能机器人,你怎么还能控制它呢?并不因为我是你的发明者,你就必然尊重我、听我的。”
如果人类希望超级智能依旧遵守人类的价值观,那么首先,需要明确人类的价值观究竟是怎样的。曾毅举例说,人类有关注过蚂蚁吗?无非是“忽略”并且“一脚踩过去”。一旦超级智能看待人类和人类看待蚂蚁的态度是一样的,如何保证人类与AI和谐共生?在曾毅眼中,这是AI发展的终极挑战。
他提出,AI发展存在近期便可能爆发的风险,即AI以一种“人类没有预期的方式去犯错”。以目前的发展水平,AI并不能理解“欺骗”这一概念,仅仅将其作为解决问题的一种策略。例如,当人类尝试调整AI的价值观,AI就可能出现为了减小计算量、反馈已调整但实际上未作调整的情况。
今年3月,美国加州圣何赛,1X Technologies的吸尘机器人在Nvidia GTC大会上展出。 视觉中国
姜奇平则表示,不应过度渲染AI末日论的说法,这是“美国的误导”,根源是所谓的武器决定论、机器决定论。
尽管认可对“末日论”的忧虑是真实存在的,但姜奇平表示,从历史经验来看这种忧虑经不起推敲。他以人类发明飞机、汽车、望远镜等为例,强调在新事物诞生节点上人类对发展的恐惧,往往事后被证明并不成立。
“中国的国运,不是建立在技术决定论基础之上的,是人和物一起起作用,人起主导作用。”姜奇平说,汽车是人类腿的延长,但为什么没有毁灭人类,是因为人类“留了个心眼,留了一个驾驶舱”,也就是说,人和物共同决定世界,其中管方向盘的还是人。
姜奇平认为,目前AI在计算主义的错误方向上发展,只强调物,不强调人。即便中美在AI领域持续竞争,双方应该也有坚持AI由人类主导的共识。
他指出,应该鼓励“世界各国来合作,来共同制定游戏规则,避免人类共同的毁灭”。中方可以提出“计算主义路线有问题,只有事实判断功能,没有价值判断功能,要求增加价值判断功能”。“如果你执意不同意,那国运时刻就到来了,也就是正确将战胜错误。”
AI全球治理如何可能?
尽管世界各国有合作治理AI的可能,但曾毅感叹:AI应用的风险在各个国家一遍又一遍重复出现。他举了中美AI进校园的实践作为例子。
2019年,生物识别技术在中国校园逐步开始应用并引发争议,部分高校的教室考勤可以通过人脸识别系统来完成,学生发呆、玩手机都能被感知到。当时中国教育部科学技术司回应说:“包含学生的个人信息都要非常谨慎,能不采集就不采。能少采集就少采集,尤其涉及到个人生物信息的。”
然而,就在同年晚些时候,美国卡内基梅隆大学推出应用于课堂的学生表情姿势等识别系统,也招致不少的反对声音,很快下线。
近年来,人脸识别技术被广泛运用于各类生产生活场景,持续引发争议。 视觉中国
曾毅表示,目前AI全球治理的一大关键问题,便是引领性的国家如何更有效地去分享风险,“不是统一全球的治理方式,而是加强互操作性。”
他强调,就AI安全而言,“不是一个国家安全了,全球就安全了。”AI技术具有扩散性,因此风险是无国界的。美国正是这方面的反面典型,“只保证自身安全,不管其他国家”。
张晓也强调了互操作性的重要意义。不同国家有不同的数字化发展道路,对合规性的定义也不同。因此对于企业数据出海而言,政策之间的互操作性便至关重要。
数字产业不同于传统产业,涉及多主体、多场景,超越边界限制,动态变化复杂,极具全球性特征。张晓表示,过去的全球治理和国内治理完全可以分开,但当前国际上一些规则的制定,反而会倒逼国内产业政策的变化。
问题在于,当下对数据的全球治理是碎片化的,缺乏统一平台。
关于在全球层面加强规则的协调性,张晓强调了联合国的作用。比如在抗击疫情、保护知识产权方面,联合国通过健全机制成功地进行了全球治理。而在AI时代,由于技术发展过快,全球共识难以达成,联合国至少可以在其中发挥协调多方规则、共同应对风险的作用。
她提出,可以将跨境数据等定义清楚,从而构建一个逻辑自洽统一的治理体系。曾毅则表示,应建设更良性、更包容、互惠互利的跨境数据流动机制。
“治理问题本质上是规则问题,”姜奇平说,“除了要考虑政府关心的问题以外,也要考虑企业的关切。这是发展的时代,规则的制定要让我们的企业好过一些。”
政府不仅要保证企业的安全,还要有服务意识,比如杭州对“六小龙”的培育和支持。杭州政商服务有句话是“不叫不到,随叫随到,服务周到”,姜奇平说,这意味着以人民为中心,想企业之所想,关心发展大局,而不是自我保护和固步自封。
此外,姜奇平在对话中特别提到,他发现了以前从未出现过的咄咄“怪事”:穷国用上先进技术,而富国还在用落后技术。
他表示,美方提出脱钩后,全球化朝着“半球化”在演进,与此同时,中方则帮助“一带一路”沿线国家建设基础设施。
3月20日,一份欧洲议会文件被曝光,内容称至少14个欧盟国家不想在发展5G网络方面减少对中国通信公司华为和中兴设备的依赖。姜奇平说,欧洲人在排斥华为一事上后悔了,用上中国基站、有了更先进生产力的非洲兄弟却喜气洋洋。
来源:观察者网