摘要:对此,宾夕法尼亚大学沃顿商学院教授Ethan Mollick近日发文指出,对这些业内人士的言论保持警惕是必要的。他们可能出于筹集资金、抬高股票估值等动机做出大胆预测。此外,当前AI技术本身也存在局限性。即使AGI实现,人类社会采用和适应这项技术的速度可能被高估
近期,人工智能领域出现了一种引人注目的现象:多家AI巨头公司的知名研究人员纷纷预测,超级智能AI系统即将在短期内出现。
这些观点认为,AGI将在未来1-2年内实现,并深刻改变社会。这种激进的预测带来了质疑声:这是否只是一场炒作?
对此,宾夕法尼亚大学沃顿商学院教授Ethan Mollick近日发文指出,对这些业内人士的言论保持警惕是必要的。他们可能出于筹集资金、抬高股票估值等动机做出大胆预测。此外,当前AI技术本身也存在局限性。即使AGI实现,人类社会采用和适应这项技术的速度可能被高估。
尽管如此,Mollick也指出,近期AI领域的一些进展确实令人瞩目。AI在狭窄智能体、模态能力方面的进展显著。我们最应该担心的,不是各AI大厂的时间表是否正确,而是是否已经为即将到来的变革做好准备。
Mollick:对AGI的大胆预测保持警惕一些AI大厂的知名研究人员近期纷纷发表言论,预测短期内将出现超级智能AI。
Mollick教授对此表示警惕,认为这些大胆预测可能背后存在筹集资金和抬高股票估值的动机。他指出,技术人员并非预言家,历史上许多技术预测往往被证明过于乐观。
此外,当前AI技术本身也存在局限性,依然具有不稳定性。这种“参差不其的能力”是当前AI系统的核心特征,难以轻易消除:
“尽管当今的大型语言模型功能令人印象深刻,但它们本质上仍然是不稳定的工具——在某些任务上表现出色,但在看似更简单的任务上却会犯错。”
Mollick认为,即使假设研究人员关于未来一两年内实现 AGI 的说法是正确的,他们也可能高估了人类采用和适应这项技术的速度。
“组织变革需要很长时间,工作、生活和教育体系的变革则更为缓慢。”
未来的洪流:技术与社会的双重考量尽管如此,近期AI领域的一些进展确实令人瞩目。OpenAI的o3模型在多项测试中首次击败人类专家,包括研究生级谷歌无法解答的问答测试(GPQA)、前沿数学题和ARC-AGI流体智力测试。
随着AI能力的提升,专业或细分领域的AI智能体的实用性日益凸显。Mollick提到谷歌的Gemini与Deep Research项目,该AI能够在几分钟内编写出一份17页的研究报告。Mollick教授亲自测试后认为,虽然不如最优秀的人类,但比很多人类撰写的报告都要好。
“专业或细分领域的AI智能体现在是真正的产品,而不是未来的可能性。已经有很多编码代理,你可以使用实验性的开源智能体进行科学和金融研究。”
除了智能体的崛起,AI在多模态能力方面的进展也引人注目。随着技术的发展,AI的上下文记忆能力和图像生成能力都有了显著提升。
Mollick举例说,如今多个图像创建工具都能准确地生成"水獭在飞机上使用wifi"这样复杂的场景,而这在不久前还是难以实现的。视频生成方面的进步同样显著。
变革已来,我们是否做好准备?鉴于这一切,我们不禁思考:是否应该如何认真对待 AI 大厂关于智能洪流即将来临的说法?
Mollick认为,我们必须认真对待当前的技术进展。我们最应该担心的不是各AI大厂的时间表是否正确,而是是否已经为即将到来的变革做好准备。
“这不仅仅关乎技术本身;还关乎我们如何选择塑造和部署它。这些问题不是 AI 开发者可以或应该单独回答的。”
他呼吁,不仅AI开发者,还包括组织领导者、员工和其他利益相关者,都应该开始思考如何塑造和部署AI技术,以确保它成为进步而非破坏的力量。
“开始进行这些讨论的时机不是在水位开始上升之后——而是现在。”
来源:华尔街见闻