摘要:今年9月,OpenAI宣布了一个重大转变:它将从一家致力于创造通用人工智能(AGI)的非营利组织转型为营利性公司。这一变化标志着OpenAI自近十年前成立以来的治理结构的重大调整。然而,这一转型并非没有争议,它伴随着一系列高管和专注于安全领域的研究人员的离职潮
作者|百川
编辑|Monday 排版|小夏
来源|炙观当下
军心不稳,离职闹剧不断
今年9月,OpenAI宣布了一个重大转变:它将从一家致力于创造通用人工智能(AGI)的非营利组织转型为营利性公司。这一变化标志着OpenAI自近十年前成立以来的治理结构的重大调整。然而,这一转型并非没有争议,它伴随着一系列高管和专注于安全领域的研究人员的离职潮。
最近,OpenAI政策研究员罗西·坎贝尔(Rosie Campbell)公开宣布了自己的离职计划,这一决定紧随10月份AGI准备团队负责人、高级政策顾问迈尔斯·布伦戴奇(Miles Brundage)的辞职之后。布伦戴奇所在的“AGI Readiness”团队,原本负责为OpenAI提供关于全球安全管理AGI能力的建议,他的离职导致该团队解散,成员被重新分配到公司的不同部门。
在上个月辞职前一直担任公司协调团队负责人的Jan Leike在X的一篇帖子中指出,“安全文化和流程已经让位于闪亮的产品。”这反映了公司文化和优先事项的转变。
回顾OpenAI的创始团队,2015年有13人共同创立了这个组织,以创造通用人工智能为使命。如今,只有3人仍然留在OpenAI。公司总裁格雷格·布罗克曼(Greg Brockman),作为留下的创始人之一,也已经将他的休假时间延长至年底。这些变化不仅揭示了OpenAI内部的动荡,也引发了外界对其未来方向和承诺的质疑。
因为恐惧,他们都想扮演“上帝”
在2015年7月的一个夏夜,埃隆·马斯克在他44岁的生日派对上,与谷歌早期创始人拉里·佩奇在游泳池边的火坑旁轻松地坐下,展开了一场关于人工智能发展的深入对话。这场讨论,印证了一句俗语——屁股决定脑袋。尽管两人都是科技界的亿万富翁,对人工智能的前景同样抱有忧虑,但他们的人生轨迹和经验却塑造了各自对AI发展截然不同的看法。
佩奇,因患有一种罕见的声带疾病,相信人类最终将与人工智能融合,并预言在智能的竞赛中,最优秀的智能终将胜出。马斯克则断言,如果那一天真的到来,人类将面临灭亡,机器可能会摧毁我们。面对这样的未来,佩奇带着些许沮丧,依然坚持追求他心中的乌托邦。在这场辩论中,他甚至将马斯克称为“物种主义者”,意指那些偏爱人类而非未来数字生命的人。马斯克后来透露,这个称呼成了他决定离开OpenAI的“最后一根稻草”。
时间流转至八年后,这场辩论已经吸引了更多亿万富翁的加入,包括Meta的马克·扎克伯格、科技投资者彼得·泰尔、微软的萨蒂亚·纳德拉以及OpenAI的萨姆·奥特曼。就像西方世界相信上帝创造了人类,佩奇似乎渴望我们超越造物主,而马斯克则更像是站在上帝的一边,认为我们的存在是为了服务于这个“造物主”群体。从人类的角度来看,马斯克可能是在帮助人类;但从“造物主”的视角来看,一切又显得异常矛盾。不过,无论这场辩论的结局如何,这些AI领域的“造物主”们都将在巨大的市场红利中分得了一杯羹。
江郎“财”尽,方知囊中羞涩苦
据媒体报道,自今年6月起,OpenAI已扩增约100名销售人员,旨在吸引更多商业客户,并把握人工智能带来的“范式转变”机遇。公司CEO萨姆·奥特曼表示,这些战略调整将助力公司筹集实现其宏伟目标所需的资金,包括开发能够造福人类的通用人工智能。5月,奥特曼在接受哈佛商学院采访时,对于公司为何选择转型为盈利实体给出了明确答复:“我们需要的资金量远超我们作为非营利组织所能吸引的范围。”
如今,进行大规模的人工智能实验需要巨大的计算能力,是十年前的30万倍,且成本极高。为了保持行业领先地位,OpenAI不得不设立营利部门并与微软展开合作。它并非孤例:竞争对手Anthropic,最初主张改变行业的基本激励结构,最终也选择与亚马逊合作,该公司由OpenAI的前员工创立,旨在更专注于人工智能的安全问题。
数据中心的扩容已成为全球AI公司的关键议题。根据最新报告,OpenAI计划在未来一年内吸引10亿用户,通过一系列高风险策略,如自建数据中心,迈入加速增长的新纪元。这家成立九年的初创公司打算在美国中西部和西南部投资建设数据中心集群,以实现其目标。OpenAI已向白宫强调了大规模数据中心建设的必要性及其巨大的电力需求。奥特曼认为,他的技术将引领我们进入“超级智能”时代,据报道,他今年已与多位投资者探讨筹集数万亿美元资金,用于资助数据中心等关键基础设施建设。
要遏制人工智能的发展,需改变整个行业的激励结构,但在追求速度、打破常规的硅谷文化中,这无疑是一项艰巨任务。站在技术前沿固然能带来利润和声望,但这并不意味着我们可以忽视放慢脚步的必要性。奥特曼近期在媒体采访中强调,制定人工智能安全行业标准并非OpenAI的独责。这是整个社会需要面对的问题,OpenAI不应独自决定如何使用或不使用ChatGPT或任何技术。
高等文明,即正义的化身?
在硅谷亿万富翁们喋喋不休的辩论声中,Open AI的盈利转型之战,其根源无非是科技与道德天平上的微妙摇摆。而相较于媒体上的激烈争辩,我国科幻小说的情节早已将这一议题巧妙地编织其中。在刘慈欣的科幻巨作《三体》中,有一个情节值得深思:当叶文洁对人类社会感到绝望,她选择向宇宙发送信息,希望引入一个更高级的外星文明来改造人类。在这个决定背后,隐藏着她的一个潜在假设——即那些拥有更高智力和科技的高等文明,必然携带着更多的善意。但这个假设真的站得住脚吗?
让我们深入探讨这个问题。在人类社会中,通常认为那些掌握丰富知识的群体,也就是那些拥有政治、经济和科技资源的精英,应当是善良和仁慈的代表。如果这个假设成立,那么理论上,国际间的矛盾和冲突应当能够通过理性的对话和协商来解决,而非诉诸于非理性的暴力。然而,放眼现实世界,情况似乎并非如此。
我们看到的是,即便是那些拥有先进技术和丰富资源的国家,也常常因为利益冲突而陷入战争和对抗。科技的进步并没有自动转化为善意的增加,反而有时被用作加剧冲突的工具。这不禁让人质疑叶文洁的假设:高等文明真的等同于更高的道德标准吗?
《三体》通过叶文洁的故事,提出了一个深刻的问题:在宇宙的广阔舞台上,文明的等级是否真的与道德的高尚成正比?这个问题不仅挑战了我们对文明进步的传统认知,也让我们反思人类在追求科技发展的同时,是否忽视了道德和精神层面的提升。叶文洁的困境,实际上是人类自身困境的一个缩影,提醒我们在探索宇宙和创造AI的同时,也要审视自己的内心。
来源:走进科技生活