摘要:NYT专栏作家Kevin Roose近期发文称,强人工智能要来,而人类尚未做好准备。当AI在数学奥赛中夺金,完成95%代码,深入到我们日常工作的每个角落时,人类真的做好迎接这个前所未有的技术革命了吗?
【导读】 NYT专栏作家Kevin Roose近期发文称,强人工智能要来,而人类尚未做好准备。当AI在数学奥赛中夺金,完成95%代码,深入到我们日常工作的每个角落时,人类真的做好迎接这个前所未有的技术革命了吗?
一觉醒来,离AGI又近了一步。 纽约时报专栏作家Kevin Roose,发帖表示自己被AGI「洗脑」了,现在对AGI深有感触。为AGI做准备,最佳时机就是现在
AGI,通常被定义为——能够完成几乎所有人类可以执行的认知任务的通用型AI系统。 Kevin Roose相信,那些坚称所有进展只是「烟雾弹」,并否认AGI可能性的顽固AI怀疑论者,不仅在观点上是错误的,而且还给人们一种虚假的安全感。 无论你认为AGI对人类来说是好事还是坏事——坦白讲,现在下结论还为时尚早——它的到来提出了重要的经济、政治和技术问题,而我们目前还没有找到答案。 Kevin认为,为AGI做准备的最佳时机,就是现在。 这一切,听起来可能有些疯狂。 但Kevin并不是满怀幻想的未来主义者,也不是炒作AI投资组合的投资人,更没有吃了太多「毒蘑菇」然后看完了《终结者2》。Hinton奥特曼AI大佬拉响警报
当今AI行业最令人不安的一点是,那些最接近这项技术的人——领先AI实验室的员工和高管们——往往也是对AI进步速度最感到担忧的人。 这种情况,相当罕见。 回想2010年,当Kevin报道社交媒体崛起时,Twitter、Foursquare或Pinterest的内部人士并不会警告他们的应用可能引发社会混乱。 小扎也没有测试Facebook,也没有考虑它是否能被用于制造新型生物武器或发动自主网络攻击的可能性。 但今天,那些掌握最前沿AI技术的人——那些正在研发强AI,并能接触到更先进系统的专家——却在告诉大家,巨变即将到来。 各AI巨头正在积极为AGI的到来做准备,并研究AI可能带来的潜在风险,比如它们是否具备策划阴谋或欺骗能力,以应对它们变得更强大、更自主的未来。LLM进化速度惊人,拿下奥赛级金牌
比专家观点更具说服力的,是AI系统正在以惊人的速度变得更强大。 2022年,当OpenAI发布ChatGPT时,主流AI模型仍然难以处理基础数学运算,在复杂推理问题上常常失败,并且经常产生「幻觉」。 在特定提示下,当时的聊天机器人确实能表现出色,但你绝不会把它们用于任何至关重要的任务。 而今天的AI模型,已经进步了许多。 现在,专训的AI模型在IMO中能达到奖牌级的水平,而通用模型在解决复杂问题上的能力提升得如此之快,以至于不得不设计更难的新测试来衡量它们的能力。 尽管幻觉和事实错误仍然存在,但新一代模型上已经变得少了许多。 如今,许多企业已经信任AI模型,并将其深度集成到核心业务和面向客户的功能中。 AI的进步,一部分是Scaling law的结果。更大的模型,结合更多的数据和更强的计算能力,通常能带来更好的效果。 当前领先的AI模型,规模已远超前几代产品。 但这也离不开近年来AI研究的突破——尤其是「推理」模型的诞生。这类模型在生成回答前会额外进行一步计算,从而提升理解和逻辑推理能力,使AI的表现更加可靠。 推理模型比如OpenAI o1和DeepSeek R1,专门训练来解决复杂问题,并采用强化学习进行构建。AI写95%代码,抢攻白领地盘
随着这些工具的进步,AI正变得越来越适用于各类白领知识型工作。 Kevin的同事Ezra Klein最近写道,ChatGPT的Deep Research(一种高级分析功能)所生成的报告,其质量至少能达到他合作过的研究人员的中等水平。一年前,他们还会从零开始构建产品,但现在95%的代码都是AI写的。
宁可准备过度,也不能毫无准备
出于认知上的谦逊,Kevin必须承认,自己和许多人的时间预测可能是错误的。 「也许AI的进步,会遇到我意想不到的瓶颈」。 比如能源短缺,导致人工智能公司无法继续扩建数据中心;或者高性能芯片的供应受限,影响AI模型的训练。 也许当前的模型架构和训练方法并不足以真正实现AGI,还需要更多技术突破。 但即使AGI比他预期的晚10年到来——不是2026年,而是2036年,他依然认为,人类应该从现在开始做好准备。 无论如何,都应该要做的事情: 更新能源基础设施; 加强网络安全防御; 加快AI设计药物的审批流程; 制定法规以防止最严重的AI危害; 在学校教授AI基础知识并将教育重点放在社交与情感发展而非即将过时的技术技能上。 无论是否存在AGI,这些建议都是明智之举。 一些科技领袖担心,对AGI的过早担忧会导致对AI的过度监管。 然而,特朗普政府已经表明其意图是加速AI的发展,而非减缓它。 而且投入到下一代AI模型研发的资金数额高达数百亿美元,并且还在不断增加—— 因此领先的AI公司自愿放缓脚步的可能性似乎不大。 与准备过度相比,更大的风险在于大多数人可能直到强大的AI直接冲击他们的生活——如失业、陷入骗局或受到伤害时,才意识到它的存在。 这正是社交媒体时代发生的情况,美国在Facebook和Twitter等工具变得「大而不倒」(too big to fall)之前,没有意识到它们可能带来风险。 这就是为什么即使我们不确定AGI何时到来或确切的形式是什么,他也主张现在就认真对待AGI的可能性。 如果我们处于否认状态——或者仅仅是不给予足够的关注——我们就可能错过在最关键时刻塑造这项技术的机会。 面对即将到来的巨大变革,我们需要保持警觉并积极应对,以便在未来能够更好地利用这一技术进步。网友热议AGI
网友Tommy. T在文章下发文称,Roose的观察非常深刻,强AI确实已经近在眼前。 尽管人们对人类能否驾驭AGI感到忧虑,Tommy却认为,只要我们理性且谨慎地去面对,这个技术将能为我们带来巨大的好处。 他表示,我们不必害怕人类对智慧的「垄断」会被AI打破,相反,我们应该把AI当作伙伴,发挥它的能力,来补充人类的创造力、同理心和道德判断力。 AGI可以强化我们的优势,帮助解决医疗创新、教育公平和环境可持续性等重大问题,为人类打开前所未有的发展机会。 要做到这些,我们必须积极做好准备。 需要大量投入于道德标准建设、公开透明的使用规则,以及确保公平普惠,让强大的AI技术造福全人类,而不仅仅是少数特权人群。 我们的目标应当是与AI共同成长——通过清醒的乐观态度和集体的责任意识,携手共进。强AI时代的到来并不可怕。只要我们选择合作、创新与审慎管理,这一时代就能成为人类历史的一个转折点。来源:东窗史谈