摘要:巴黎峰会上的专家 敦促加强对人工智能 (AI) 的监管,以防止其逃脱人类控制。Max Tegmark 强调了法国在引领全球 AI 治理和安全计划方面的作用。国际 AI 安全报告强调了风险,包括可能失去对 AI 系统的人类控制。
随着全球领导人齐聚巴黎参加该技术峰会,来自世界各地的专家呼吁加强对人工智能 (AI) 的监管,以防止其逃脱人类控制。
法国与印度共同主办周一和周二的会议,选择在 2025 年关注人工智能的“行动”,而不是像 2023 年在英国布莱切利公园和 2024 年在韩国首都首尔举行的会议那样将安全问题放在首位和中心位置。
法国的愿景是让政府、企业和其他行为者站出来支持 AI 的全球治理,并就可持续性做出承诺,而无需制定具有约束力的规则。
“我们不想把时间花在只谈论风险上。还有非常真实的机会方面,“埃马纽埃尔·马克龙总统的人工智能特使安妮·布韦罗 (Anne Bouverot) 说。
美国生命未来研究所(Future of Life Institute)负责人马克斯·泰格马克(Max Tegmark)经常警告人工智能的危险,他告诉法新社,法国不应错过采取行动的机会。
“法国一直是国际合作的杰出拥护者,有机会真正引领世界其他地区,”这位麻省理工学院的物理学家说。
“巴黎峰会上有一个很大的岔路口,应该被接受。”
Tegmark 的研究所支持周日推出一个名为 Global Risk and AI Safety Preparedness (Grasp) 的平台,该平台旨在绘制与 AI 相关的主要风险以及世界各地正在开发的解决方案。
“我们已经确定了大约 300 种工具和技术来应对这些风险,”Grasp 协调员 Cyrus Hodes 说。
调查结果将传递给经合组织富裕国家俱乐部和全球人工智能伙伴关系 (GPAI) 的成员,该联盟由包括欧洲主要经济体、日本、韩国和美国在内的近 30 个国家组成,他们将在巴黎举行会议。
上周还于周四发布了第一份国际 AI 安全报告,该报告由 96 名专家编写,并得到 30 个国家/地区、联合国、欧盟和经合组织的支持。
文件中概述的风险范围从熟悉的风险(例如在线虚假内容)到更令人担忧的风险。
“证据不断出现,证明生物攻击或网络攻击等额外风险,”该报告的协调员、著名计算机科学家约书亚·本吉奥 (Yoshua Bengio) 告诉法新社。
从长远来看,2018 年图灵奖得主本吉奥担心人类可能会“失去对人工智能系统的控制”,这可能是出于“他们自己的生存意志”。
“就在六年前,很多人还认为掌握 ChatGPT-4 级别的语言是科幻小说——然后它发生了,”Tegmark 在谈到 OpenAI 的聊天机器人时说。
“现在最大的问题是,很多当权者仍然不明白,我们更接近于构建通用人工智能 (AGI),而不是弄清楚如何控制它。”
AGI 是指在所有领域与人类相当或更好的人工智能。
它在几年内的方法受到了 OpenAI 首席执行官 Sam Altman 等人的欢迎。
“如果你只关注这些能力的增长速度,它确实会让你认为我们会在 2026 年或 2027 年之前实现这一目标,”阿尔特曼在竞争对手 Anthropic 的同行达里奥·阿莫迪 (Dario Amodei) 在 11 月表示。
“在最坏的情况下,这些美国或中国公司会失去对它的控制,然后,地球将由机器运行,”Tegmark 说。
加利福尼亚州伯克利大学计算机科学教授斯图尔特·拉塞尔 (Stuart Russell) 表示,他最大的恐惧之一是“武器系统,其中控制该武器系统的 AI 正在决定攻击谁、何时攻击等等”。
Russell 还是国际安全与道德人工智能协会 (IASEI) 的协调员,他将建立针对武装 AI 的保障措施的责任坚定地放在政府身上。
Tegmark 表示,解决方案非常简单:像对待所有其他行业一样对待 AI 行业。
“在有人可以在巴黎以外的地方建造新的核反应堆之前,他们必须向政府指定的专家证明这个反应堆是安全的。你不会失去对它的控制......AI 也应该如此,“Tegmark 说。
来源:当代生命哲学家