摘要:外滩金融科技大会在上海举行。开幕式当天《人类简史》作者的历史学家尤瓦尔·赫拉利,站上主论坛讲台,提出了一个让不少技术从业者都陷入沉思的问题:
外滩金融科技大会在上海举行。开幕式当天《人类简史》作者的历史学家尤瓦尔·赫拉利,站上主论坛讲台,提出了一个让不少技术从业者都陷入沉思的问题:
AI已经触及了社会的中枢神经系统,我们是否已经将决定权,交给了看不见也无法质询的算法?
赫拉利的这一观点很快在会议现场激起强烈的反应。特别是在产业界以加速创新为主流趋势的当下,他的讲话被一些人看作是在唱反调。
但仔细看完他演讲的完整内容,会发现他并非反对AI本身,而是对在没有明确安全边界的前提下,过度部署AI表示出担忧。
有人提出:AI没有自主意志,也无法作出真正意义上的决定,因此担心它取代人类文明的主导地位,是一种过度想象。
赫拉利的看法却是另一套逻辑。他强调的不是AI有没有意识,而是它已经掌握了人类社会中最关键的运作工具之一那就是语言。
他指出AI的语言表达能力已经超过了人类的平均水平,这意味着它可以在社交媒体、新闻、教育、传播等多个领域制造影响甚至主导叙事。
过去两年各类AI生成内容在广告、出版、客服等多个行业落地,有些企业甚至已经将客服团队的70%交由AI处理。内容生成不再是辅助了。
从另一个角度看AI技术支持者认为:技术本身中立,问题出在人类使用方式上。
AI不过是一种工具,是谁用它、怎么用它,才决定了它带来的风险。这是不少技术乐观主义者的观点。
在外滩大会上香港大学马毅教授提出了重要建议:要将AI从黑箱系统转变为白箱模型,让决策路径可视化可解释。
复旦大学漆远教授也指出,AI的可控性要依靠高质量的数据治理手段。这部分技术路径,恰恰是赫拉利所强调的自我修正机制闭环的体现。
在产业圈里有一种普遍的担忧,那就是谁慢一步,谁就落后一步。这在AI时代尤为明显。
赫拉利指出,这种为赢得技术领先而不顾风险的竞争心态,正在导致企业和国家越过安全边界,推动AI的仓促部署。
他说:AI真正的危险,不是某个坏人按下了某个按钮,而是我们在不知不觉中,把人类的决定权让给了看不见的代码。
不过会议现场也并非一边倒的担忧氛围。一些企业也在做出技术上的反应。例如蚂蚁集团展示的“蚁天鉴”大模型安全解决方案。
覆盖了包括Agent对齐、智能体零信任防御等技术,正是针对大模型安全问题做出的回应。这显示,AI安全治理不是停止,而是有边界的。
赫拉利用硅幕这个概念,引发了对数字冷战的焦虑。他指出未来可能出现以AI为中心的数字帝国。
不同地区的人们将因语言系统、文化算法的不同而
日渐隔绝。算法推荐机制在当今社交媒体平台上已经开始制造信息茧房。
这并不是危言耸听。在内容消费中越来越多的用户已经只接触与自身观点相符的信息,这本质上是一种算法过滤。而这种信息封闭一旦放大到国家级别,将可能引发巨大的断裂。
对此阿里云创始人王坚在外滩大会上提出,未来AI时代的开源不仅是代码层面的开放,更是资源、生态、文化的全方位协作。
尤瓦尔·赫拉利他并不反对AI的存在,也没有否认AI的价值,而是在提醒人类,真正的选择权还握在我们手中。
是任由技术驱动文明走向分裂,还是建立信任机制让技术助力协作?这是2025年AI产业发展绕不过去的核心问题。
外滩大会的讨论只是一个起点。技术的未来归根结底,取决于我们如何设定规则。正如赫拉利所说:人类之所以能统治世界,不是因为我们最聪明,而是因为我们最懂协作。
来源:瑛子的分享日常