摘要:这个悬而未决的问题面了本届温哥华 TED 2025 大会的一根利刺,亦是 TED 创始人克里斯·安德森向 ChatGPT 缔造者山姆·奥特曼发出的终极一问。可讽刺的是,这个问题并非来自安德森本人,而是由 OpenAI 家模型的竞品 Claude 所提出。现场的
作者:Steve Rosenbaum
译者:核子可乐
策划:褚杏娟
“山姆,考虑到你所参与创造的是一项将要重塑我们整个物种命运的技术,那么你做这件事的伦理依据和权威性来源是什么?如果你搞错了,又打算如何承担这份责任?”
这个悬而未决的问题面了本届温哥华 TED 2025 大会的一根利刺,亦是 TED 创始人克里斯·安德森向 ChatGPT 缔造者山姆·奥特曼发出的终极一问。可讽刺的是,这个问题并非来自安德森本人,而是由 OpenAI 家模型的竞品 Claude 所提出。现场的紧张感与焦灼氛围由此可见一斑。
奥特曼的回应则是,“咱们聊了半个小时,你问的一直都是这类问题。”
这番回应巧妙地转移了对话。此次对话犀利地指向我们拥抱 AI 未来的各项弊端——那些被提出、被承认,之后又被巧妙回避的棘手难题。
看着这场问责大戏在舞台上推进,观众们深深被它揭示出的 AI 时代权力形态所震撼。这位掌控着周活用户高达 5 亿、规模甚至超过北美总人口的科技主宰,竟然无法直接回答这份权力来自哪里。
“这是无可避免的现实”
奥特曼平静地宣称,“这是无可避免的现实。就像一项全世界都已知晓的基础物理发现,必将成为真实世界的一部分。”他的证据仿佛在描述明天太阳还会照样升起。“我们必须谨慎地予以接纳,但要注意消除恐惧,否则我们会被其他借 AI 之力而变得更强之人所击败。”
而他话语中的宿命论也直接终结了这个意义之问。既然一切无可避免,那又何必还要寻根问底?而如果抗拒 AI 技术意味着被“击败”,那我们自然也就别无选择。
这种思维方式——即 AI 的飞速发展并非出于个别人的选择,而是自然规律的体现——巧妙免除了奥特曼及其同行在技术开发期间逐渐脱离普通民众的现实责任。
但安德森并没有就此放过他。“问题在于,我一方面认为可能需要安全机构的介入,但另一方面却意识到机身本身恰恰就是风险的来源”,同时强调奥特曼在监管问题上存在立场冲突。
安德森引用了托尔金在《魔戒》中关于腐败的比喻,认为这个例子如今在硅谷正真实发生,“埃隆·马斯克有说法,认为你已经被力量之戒给腐蚀了。看到科技企业的 CEO 们权力越来越大、掌握的财富越来越丰厚,每个人都在想,他们真能驾驭这一切吗?还是说,他们已经被这股力量所吞噬?”
奥特曼的回答意味深长。他并没有直接为自己开脱,而是将问题抛回给了安德森:“那你觉得我做得怎么样?特别是跟那些掌握了巨大权力,而且行事风格一变再变的 CEO 相比?”
这番话巧妙地扭转了局面,强迫安德森在直接批评对方和就此罢休之间二选其一。安德森则选择了一条中间路线,承认奥特曼个人的行为还算得体,但同时也强调了更大的担忧:“我认为人们最担心的是 OpenAI 公开转向盈利模式。有些觉得这代表着你已经被欲望侵蚀了,催动你在潜在经济效益被耗尽之前努力榨出每一分收益。”
这番对话也揭示出 AI 时代下我们普通人身处的困境:被迫信任科技领袖的个人品质,但他们的企业架构和激励机制却越来越倾向于赤裸裸地追求利润和权力。
“它会彻底了解你”
在这段对话当中,最令人毛骨悚然的桥段也许来自奥特曼对于 AI 未来愿景的表述:“它将陪伴人的一生,观察你与 ChatGPT 的所有对话。也许有一天,如果大家愿意,AI 会随时倾听你的声音、观察你的一举一动。它会彻底了解你,成为你的延伸、你的伙伴,成为努力帮助你做得更好、发掘所有潜能的存在。”
安德森将此比作电影《她》中的情节,片中 AI 会阅读主角的所有电子邮件、代表他做出改变人生的行动。奥特曼并不反对这样的联想。
奥特曼轻描淡写地描述了未来 AI 系统监控我们的具体方式——“观察你的一举一动”,这暴露了其观念与大多数人抗拒持续监控这一现实的根本性脱节。在这个对于技术意义愈发抵触的新时代,“如果大家愿意”这个前提已经显得空洞而无力。
父母悖论
安德森问起成为人父是否改变了奥特曼对于潜在风险的观点,并提出了一个思维实验:如果按下一个按钮,你的孩子就能拥有精彩的人生,但同时有着 10% 的毁灭概率,你会怎么选择?奥特曼立即回应,“问题是并没有这样的选项。当然,如果把场景换到工作这边来,那我的答案是,应该不会按。”
个人风险承受能力与专业风险接受能力之间的脱节,体现的正是 AI 开发中最核心的认知失调。奥特曼绝不会接受自己的孩子承受 10% 的毁灭风险,但 OpenAI 的工作却在给全球数十亿儿童塑造一个充满未知的未来。
正如他所说,“我以前真的很在意这些问题,比如不要搞到世界毁灭。现在我也仍然在意,跟有没有孩子并无关系。”
但在意归在意,他也从来没有放慢过推进的脚步……
开源冲突
奥特曼自豪地宣布,“我们将要开发一套极其强大的开源模型。也许在座的某些人会以你我不喜欢的方式加以使用。”
这种对于强大 AI 模型可能造成的危害表现出的漫不经心态度,与奥特曼之前对于安全的强调和口头认可形成了鲜明对比。结合科技行业,这就相当于“有些会可能滥用我们即将发布的核发射代码,但我们的创新成果就是这个样子。”
安德森指出了这种矛盾,并询问 OpenAI 内部如何为防范危险 AI 能力被公开而划定“红线”。奥特曼提到他们拥有“准备框架”,但没有具体说明——唯一可以肯定的,就是公众对于这套框架的定义和执行都没有任何发言权。
“关于 AGI,不同的人在不同的时间点上会有不同的定义”
在被问及如何定义通用人工智能(AGI)时,奥特曼透露了一个惊人的现实:“如果让 10 位 OpenAI 研究人员坐在一起讨论这个定义,得到的答案可能都不止 10 个。”
安德森一针见血地指出了问题所在:“但这很令人担忧,不是吗?毕竟这是我们的使命所在。我们希望率先实现 AGI、承诺会安全达成目标,但我们甚至一直没能找到能清晰描述这个目标的定义。”
这段对话暴露出了 OpenAI 的核心矛盾:他们正在追求一个定义不明确、甚至可能给整个人类族群带来灭顶之灾的目标,但同时又向公众保证会“安全”达成。
接下来,我们该何去何从?
最发人深省的一点在于,安德森建议召开一场小型专家峰会,为全球制定 AI 安全标准。奥特曼又是怎么回答的?
“当然,但我更关心的问题是,数亿用户作为整体到底想要什么。”
这听起来非常民主,但相信很多人都能感受到其中的误导性。用户“想要”的只能是明确给出的选项,而非充满主观发挥空间的随机路线。人们也会“想要”抽烟,但直到几十年后才慢慢意识到这对健康造成的严重摧残。
现实在于,我们无法通过投票来决定奥特曼和他的同事们应不应该做出这些重大决定,毕竟他们已经自封为人类技术命运的负责人。
安德森就此评论道,“我不知道该说什么了。非要评论的话,我觉得你让我心生敬畏,毕竟你打造出了世界上最令人惊叹的成果之一。”
相信更多朋友感受到的会是恐惧。不是恐惧奥特曼本人,毕竟他看起来真诚且睿智,始终希望做好正确的事;真正令人恐惧的是这套制度,它允许少数技术专家做出事关全球的决策,他们贸然实施着缺少法理性来源的行动,但行动的后果却由投资者和全体用户来承担。
所以这场对话中最重要的问题始终悬而未决:山姆·奥特曼或者其他什么人重塑人类命运的伦理依据和权威性来源是什么?这种法理来源的缺失令人不安,但我们却已经在懵懂之间走了很远、走到了现在。
附:奥特曼观点总结
AI 对于就业和创意产业的影响
AI 对就业的影响:山姆总结称,关于 AI 对就业的冲击,人们普遍抱有两种观点——要么担心自己被取代,要么只是将 AI 视为一种新型工具,在提高市场对于产出的期待的同时也赋予了从业者们更强大的能力,帮助他们取得愈发精彩的成果。
创意作品、知识产权以及向创作者付费:山姆表示,人类的创造力至关重要,并承认目前在知识产权、合理使用与知情同意等方面存在挑战。他提出了新的商业模式,希望让那些在风格层面启发了 AI 生成内容的创作者们能够拿到公平的回报。
开源与 AI 竞赛
OpenAI 对于开源和 DeepSeek 的态度:山姆承认 OpenAI 拥抱开源较晚,但证实公司目前正在开发一款强大且领先的开源模型。他还提到,尽管不可避免会遭到一定滥用,但开源模型确实意义重大。
AI 已经掀起一波发展竞赛:山姆并不认可 AI 已经沦为不负责任竞赛的说法,他声称大多数 AI 厂商都真心关注安全问题,并强调即使是在竞争压力之下,OpenAI 也始终在以谨慎态度规划并处理安全问题。
打造卓越 AI 产品
专注于产品而非模型原始能力:山姆指出,未来会涌现出大量先进的 AI 模型,但 OpenAI 一直优先考虑创造最佳用户体验,并强调实现个人记忆等功能,尝试随时间推移愈发了解用户以保证 AI 更加实用。
预期的 AI 突破
AI 驱动下的科学发现:山姆表示,下一个重大突破将来自 AI 在科学领域的应用,包括在对抗疾病方面的重大进展,并有可能发现室温超导体等新材料。但他同时指出,物理学理论方面的突破则可能需要更长时间。
自主软件开发:山姆提到,由自主软件编写智能体驱动的软件工程领域,也即将迎来另一个重大飞跃。
对于 AI 安全的担忧
强大 AI 带来的严重风险:山姆公开表达了对于 AI 滥用的高度担忧,例如生物恐怖主义、网络安全威胁以及 AI 可能获得人类无法控制的自我改进能力。
OpenAI 的安全准备框架:山姆描述了 OpenAI 在发布 AI 模型之前用于系统识别的结构化方法与风险管理机制,但也承认公司内部对于具体安全策略仍经常发生分歧。
公众焦虑与生存风险:山姆认为公众对于 AI 生存风险的担忧是合理的,但认为从古至今,社会一直是通过经验加谨慎调整、而非排斥和恐惧来适应新的技术。
定义和监管高级 AI
定义通用人工智能(AGI)与 ChatGPT 的当前能力:山姆澄清称,ChatGPT 并不能算 AGI,因为它还无法自主学习、自我改进、发现新的科学知识或者独立执行复杂的在线任务。但他承认,随着 AI 变得越来越智能,其具体定义也将有所不同。
AI 监管与许可:山姆改变了之前的立场,由支持政府就高级 AI 发布许可转为推荐使用外部安全测试框架,以确保强大的 AI 模型在公开发布前接受认真评估。
个人观点、批评与责任
公众对于山姆本人和 OpenAI 的看法:山姆承认 OpenAI 从完全开放转向部分商业化的决策在公众中激起了一定非议,同时坦言策略转变也是无奈之举,但重申了承诺,即以安全方式发布强大 AI 成果。
对于权力和腐败的批评:山姆否认自己被 AI 成功所带来的财富或者权力所腐蚀,并表示他自认为并没有改变,强调 OpenAI 的战略转型是统筹 AI 发展的合理举措。
身为人父对于山姆思维的影响:山姆分享道,身为人父对他个人产生了深远的影响。他不觉得自己从事的 AI 工作会给孩子未来带来风险,但承认自己感受到了更大的责任,希望能给孩子塑造一个更积极的未来环境。
关于 AI 的社会决策
广泛收集用户反馈还是依托精英峰会:山姆更倾向于从 OpenAI 的数亿用户处收集 AI 安全偏好,而非仅仅依赖小型专家峰会。这表明 AI 自身有助于更准确地反映公众的价值观和偏好。
对于下一代人的展望
山姆后代将迎来的世界:山姆描述了一种新的未来,即孩子们打出生起就在接触经人类更聪明的 AI。他还展望了持续创新、资源愈发丰富且无缝融入日常生活的智能 AI 新形态,期待未来几代人清晰意识到人类局限性的终结并坦然接受这样的现实。
相关链接:
阅读最新前沿科技趋势报告,请访问欧米伽研究所的“未来知识库”
未来知识库是“欧米伽未来研究所”建立的在线知识库平台,收藏的资料范围包括人工智能、脑科学、互联网、超级智能,数智大脑、能源、军事、经济、人类风险等等领域的前沿进展与未来趋势。目前拥有超过8000篇重要资料。每周更新不少于100篇世界范围最新研究资料。欢迎扫描二维码或访问进入。
牛津未来研究院 《将人工智能安全视为全球公共产品的影响、挑战与研究重点》
麦肯锡:超级智能机构:赋能人们释放人工智能的全部潜力
AAAI 2025 关于人工智能研究未来研究报告
斯坦福:2025 斯坦福新兴技术评论:十项关键技术及其政策影响分析报告(191 页)
壳牌:2025 能源安全远景报告:能源与人工智能(57 页)
盖洛普 & 牛津幸福研究中心:2025 年世界幸福报告(260 页)
Schwab :2025 未来共生:以集体社会创新破解重大社会挑战研究报告(36 页)
IMD:2024 年全球数字竞争力排名报告:跨越数字鸿沟人才培养与数字法治是关键(214 页)
DS 系列专题:DeepSeek 技术溯源及前沿探索,50 页 ppt
联合国人居署:2024 全球城市负责任人工智能评估报告:利用 AI 构建以人为本的智慧城市(86 页)
TechUK:2025 全球复杂多变背景下的英国科技产业:战略韧性与增长路径研究报告(52 页)
NAVEX Global:2024 年十大风险与合规趋势报告(42 页)
《具身物理交互在机器人 - 机器人及机器人 - 人协作中的应用》122 页
2025 - 2035 年人形机器人发展趋势报告 53 页
Evaluate Pharma:2024 年全球生物制药行业展望报告:增长驱动力分析(29 页)
【AAAI2025 教程】基础模型与具身智能体的交汇,350 页 ppt
Tracxn:2025 全球飞行汽车行业市场研究报告(45 页)
谷歌:2024 人工智能短跑选手(AI Sprinters):捕捉新兴市场 AI 经济机遇报告(39 页)
【斯坦福博士论文】构建类人化具身智能体:从人类行为中学习
《基于传感器的机器学习车辆分类》最新 170 页
美国安全与新兴技术中心:2025 CSET 对美国人工智能行动计划的建议(18 页)
罗兰贝格:2024 人形机器人的崛起:从科幻到现实:如何参与潜在变革研究报告(11 页)
兰德公司:2025 从研究到现实:NHS 的研究和创新是实现十年计划的关键报告(209 页)
康桥汇世(Cambridge Associates):2025 年全球经济展望报告(44 页)
国际能源署:2025 迈向核能新时代
麦肯锡:人工智能现状,组织如何重塑自身以获取价值
威立(Wiley):2025 全球科研人员人工智能研究报告(38 页)
牛津经济研究院:2025 TikTok 对美国就业的量化影响研究报告:470 万岗位(14 页)
国际能源署(IEA):能效 2024 研究报告(127 页)
Workday :2025 发挥人类潜能:人工智能(AI)技能革命研究报告(20 页)
CertiK:Hack3D:2024 年 Web3.0 安全报告(28 页)
世界经济论坛:工业制造中的前沿技术:人工智能代理的崛起》报告
迈向推理时代:大型语言模型的长链推理研究综述
波士顿咨询:2025 亚太地区生成式 AI 的崛起研究报告:从技术追赶者到全球领导者的跨越(15 页)
安联(Allianz):2025 新势力崛起:全球芯片战争与半导体产业格局重构研究报告(33 页)
IMT:2025 具身智能(Embodied AI)概念、核心要素及未来进展:趋势与挑战研究报告(25 页)
IEEE:2025 具身智能(Embodied AI)综述:从模拟器到研究任务的调查分析报告(15 页)
CCAV:2025 当 AI 接管方向盘:自动驾驶场景下的人机交互认知重构、变革及对策研究报告(124 页)
《强化学习自我博弈方法在兵棋推演分析与开发中的应用》最新 132 页
《面向科学发现的智能体人工智能:进展、挑战与未来方向综述》
全国机器人标准化技术委员会:人形机器人标准化白皮书(2024 版)(96 页)
美国国家科学委员会(NSB):2024 年研究与发展 - 美国趋势及国际比较(51 页)
艾昆纬(IQVIA):2025 骨科手术机器人技术的崛起白皮书:创新及未来方向(17 页)
NPL&Beauhurst:2025 英国量子产业洞察报告:私人和公共投资的作用(25 页)
IEA PVPS:2024 光伏系统经济与技术关键绩效指标(KPI)使用最佳实践指南(65 页)
AGI 智能时代:2025 让 DeepSeek 更有趣更有深度的思考研究分析报告(24 页)
2025 军事领域人工智能应用场景、国内外军事人工智能发展现状及未来趋势分析报告(37 页)
华为:2025 鸿蒙生态应用开发白皮书(133 页
《超级智能战略研究报告》
中美技术差距分析报告 2025
欧洲量子产业联盟(QuIC):2024 年全球量子技术专利态势分析白皮书(34 页)
美国能源部:2021 超级高铁技术(Hyperloop)对电网和交通能源的影响研究报告(60 页)
罗马大学:2025 超级高铁(Hyperloop):第五种新型交通方式 - 技术研发进展、优势及局限性研究报告(72 页)
兰德公司:2025 灾难性网络风险保险研究报告:市场趋势与政策选择(93 页)
GTI:2024 先进感知技术白皮书(36 页)
AAAI:2025 人工智能研究的未来报告:17 大关键议题(88 页)
安联 Allianz2025 新势力崛起全球芯片战争与半导体产业格局重构研究报告
威达信:2025 全球洪水风险研究报告:现状、趋势及应对措施(22 页)
兰德公司:迈向人工智能治理研究报告:2024EqualAI 峰会洞察及建议(19 页)
哈佛商业评论:2025 人工智能时代下的现代软件开发实践报告(12 页)
德安华:全球航空航天、国防及政府服务研究报告:2024 年回顾及 2025 年展望(27 页)
奥雅纳:2024 塑造超级高铁(Hyperloop)的未来:监管如何推动发展与创新研究报告(28 页)
HSOAC:2025 美国新兴技术与风险评估报告:太空领域和关键基础设施(24 页)
Dealroom:2025 欧洲经济与科技创新发展态势、挑战及策略研究报告(76 页)
《无人机辅助的天空地一体化网络:学习算法技术综述》
谷歌云(Google Cloud):2025 年 AI 商业趋势白皮书(49 页)
《新兴技术与风险分析:太空领域与关键基础设施》最新报告
150 页!《DeepSeek 大模型生态报告》
军事人工智能行业研究报告:技术奇点驱动应用加速智能化重塑现代战争形态 - 250309(40 页)
真格基金:2024 美国独角兽观察报告(56 页)
璞跃(Plug and Play):2025 未来商业研究报告:六大趋势分析(67 页)
国际电工委员会(IEC):2025 智能水电技术与市场展望报告(90 页)
RWS:2025 智驭 AI 冲击波:人机协作的未来研究报告(39 页)
未来今日研究所 2025 年科技趋势报告第 18 版 1000 页
模拟真实世界:多模态生成模型的统一综述
中国信息协会低空经济分会:低空经济发展报告(2024 - 2025)(117 页)
浙江大学:2025 语言解码双生花:人类经验与 AI 算法的镜像之旅(42 页)
人形机器人行业:由 “外” 到 “内” 智能革命 - 250306(51 页)
大成:2025 年全球人工智能趋势报告:关键法律问题(28 页)
北京大学:2025 年 DeepSeek 原理和落地应用报告(57 页)
欧盟委员会 人工智能与未来工作研究报告
加州大学伯克利分校:面向科学发现的多模态基础模型:在化学、材料和生物学中的应用
电子行业:从柔性传感到人形机器人触觉革命 - 250226(35 页)
RT 轨道交通:2024 年中国城市轨道交通市场数据报告(188 页)
FastMoss:2024 年度 TikTok 生态发展白皮书(122 页)
Check Point:2025 年网络安全报告 - 主要威胁、新兴趋势和 CISO 建议(57 页)
【AAAI2025 教程】评估大型语言模型:挑战与方法,199 页 ppt
《21 世纪美国的主导地位:核聚变》最新报告
沃尔特基金会(Volta Foundation):2024 年全球电池行业年度报告(518 页)
国际科学理事会:2025 为人工智能做好国家研究生态系统的准备 - 2025 年战略与进展报告(英文版)(118 页)
光子盒:2025 全球量子计算产业发展展望报告(184 页)
奥纬论坛:2025 塑造未来的城市研究报告:全球 1500 个城市的商业吸引力指数排名(124 页)
Future Matters:2024 新兴技术与经济韧性:日本未来发展路径前瞻报告(17 页)
《人类与人工智能协作的科学与艺术》284 页博士论文
《论多智能体决策的复杂性:从博弈学习到部分监控》115 页
《2025 年技术展望》56 页 slides
大语言模型在多智能体自动驾驶系统中的应用:近期进展综述
【牛津大学博士论文】不确定性量化与因果考量在非策略决策制定中的应用
皮尤研究中心:2024 美国民众对气候变化及应对政策的态度调研报告:气候政策对美国经济影响的多元观点审视(28 页)
空间计算行业深度:发展趋势、关键技术、行业应用及相关公司深度梳理 - 250224(33 页)
Gartner:2025 网络安全中的 AI:明确战略方向研究报告(16 页)
北京大学:2025 年 DeepSeek 系列报告 - 提示词工程和落地场景(86 页)
北京大学:2025 年 DeepSeek 系列报告 - DeepSeek 与 AIGC 应用(99 页)
CIC 工信安全:2024 全球人工智能立法的主要模式、各国实践及发展趋势研究报告(42 页)
中科闻歌:2025 年人工智能技术发展与应用探索报告(61 页)
AGI 智能时代:2025 年 Grok - 3 大模型:技术突破与未来展望报告(28 页)
上下滑动查看更多
来源:人工智能学家