AI的“潘多拉魔盒”已打开?民众普遍认为现在想“关上”为时已晚

360影视 国产动漫 2025-09-19 19:59 1

摘要:在人工智能(AI)可能危及人类生存之前,我们是否应该踩下刹车?随着这项技术持续渗透产业与日常生活,公众对其未来的看法正严重撕裂——尤其是在具备类人智能的AI模型日益成为现实的当下。

本文为深度编译,仅供交流学习,不代表智子说观点

在人工智能(AI)可能危及人类生存之前,我们是否应该踩下刹车?随着这项技术持续渗透产业与日常生活,公众对其未来的看法正严重撕裂——尤其是在具备类人智能的AI模型日益成为现实的当下。

一个核心忧虑是:当AI超越人类智能时,世界将何去何从?专家将这一理论上的时刻称为“奇点”——届时,技术或将突破通用人工智能(AGI)的边界,演化出能够递归式自我改进、最终脱离人类控制的超级智能。

《生活科学》(Live Science)最近的一项读者调查,便揭示了这种复杂心态。截至发稿时,已有1787名读者参与投票。调查结果显示:

46% 的读者认为,因其威胁过高,必须立即停止AI研发;30% 的人主张,在完善的安全措施出台前应暂停其发展;仅有 9% 的人相信,先进技术带来的益处将超过风险;另有 5% 的人认为这无关紧要,因为人类永远无法达到所谓的“奇点”。

然而,在评论区,许多读者认为人类已经走得太远,无法逆转通往超级智能的进程。“为时已晚,”读者凯特·萨金森写道,“谢天谢地我年纪大了,不必亲眼目睹这场灾难的后果。”

另一位读者CeCe则回应道:“我想我们都明白,魔鬼一旦出了瓶,就不可能再塞回去了。”

当然,也有读者认为这种担忧被过分夸大了,并将其与历史上公众对技术变革的恐惧相提并论。“每一项新兴技术都会遇到反对者、批评者,甚至疯子。人工智能也不例外。”一位名叫From the Pegg的读者表示。

在《生活科学》的社交平台上,也有粉丝表达了类似观点:“当电力刚出现时,很多人也提出过同样的质疑,他们做出了各种灾难性的预言,但其中大部分并未成真。”

更有读者指出了问题的复杂性,认为这已演变为一场国际“军备竞赛”。“相关的技术知识早已公开,我们无力阻止其发展,”读者3jaredsjones3写道。他警告,我们必须警惕AI对人类的“挤出效应”——即便AI尚未达到超级智能,数以百万计的AI代理也可能对人类构成巨大的替代风险。

他补充道:“当英伟达这样的企业试图用AI取代所有人力时,安全保障至关重要。不过,AI在科学、医疗、气候变化等关键领域的贡献,或许能缓解部分问题。这是一把双刃剑,回报潜力巨大,但风险也同样严峻。”

相比于全面禁止,一些评论者提出了具体的监管建议。读者Isopropyl提议:“应对封闭式大型语言模型(LLM)的训练和推理阶段征收重税……同时对大型模型的训练实施累进税制。”他认为,这样可以激励业界将重心从追求通用人工智能,转向优化现有技术的实用性,并鼓励发展可由消费者自主管理的小型专用模型,帮助公众“建立更健康的AI关系”。

关于人工智能的未来,辩论仍在继续。您怎么看?欢迎分享您的观点。

作者:艾莉丝·普尔

来源:有趣的科技君

相关推荐