AI行业巨大突破!OpenAI公布研究进展,中国早在多年前就已发现

360影视 日韩动漫 2025-09-15 18:37 2

摘要:在 AI 研究里,有个被反复验证的 “苦涩教训”(The Bitter Lesson):不管是国际象棋、围棋,还是语音识别、计算机视觉,到最后你会发现,堆算力才是最管用的。

行业的发展离不开大家的研究,尤其是在新兴领域上,大家都是在摸着石头过河。

那么现在科技发展的方向是什么?答案毫无疑问的会指向AI行业,各个国家都纷纷的在这个领域发力。

而行业中的T0梯队中,无疑会有着OpenAI的存在。

可是伴随着OpenAI公布自己的研究成果,回头却发现这样的道理中国早就已经明白。

在 AI 研究里,有个被反复验证的 “苦涩教训”(The Bitter Lesson):不管是国际象棋、围棋,还是语音识别、计算机视觉,到最后你会发现,堆算力才是最管用的。

反而咱们强行给模型加的 “条条框框”(也就是所谓的 “结构”),往往会限制它的潜力 ,算力越猛,这种限制就越明显。

先搞明白啥叫 “结构”,其实就是咱们根据自己的经验,觉得模型 “应该” 这么解决问题,提前给它设的 “偏见”。

比如计算机视觉领域,以前研究人员折腾了几十年,根据专业知识设计了一堆特征提取工具,像 SIFT、HOG 这些,觉得模型按这个路子走准没错。

结果呢?这些手工搞出来的 “框框”,把模型局限在了咱们能想到的模式里。

后来算力上来了,数据也多了,深度网络直接从像素里自己学特征,一下就把手工方法甩远了,你看,这就是 “结构” 拖后腿的典型例子。

最近 OpenAI 的 Hyung Won Chung 在演讲里提了个有意思的研究方法,正好能对应这个 “教训”:先根据当下的算力和数据,搭必要的结构撑着;但等后面发展起来,就得把这些结构拆了,因为当初的 “捷径” 早晚会变成瓶颈。

这事儿不光在 AI 研究里算,做 AI 应用(也就是 AI 工程)也一样,我自己做 “open-deep-research” 工具的经历,就把这点体现得明明白白。

去年(2023 年)我用 AI 智能体(Agent)的时候,别提多闹心了,让大模型(LLM)靠谱地调用工具难如登天,上下文窗口还特别小。

到 2024 年初,我就盯上了 “工作流”:不让大模型自己循环调用工具,而是把它的调用步骤嵌在提前写好的代码路径里,相当于给它画好路线图。

2024 年底,我搞了个用于网络研究的 “编排器 - 工作器” 工作流:编排器是个大模型调用,接了用户需求后,先列个报告章节清单;然后一群 “工作器” 并行研究、写每个章节,最后拼到一起就行。

这里的 “结构” 很明显:我先假设大模型得这么做才能高效研究,拆章节、并行写、别用工具(怕不靠谱)。

结果到 2024 年底,情况变了。工具调用越来越好用,2025 年冬天 MCP(多模态内容处理)又火起来,明眼人都看出来,AI 智能体特别适合做研究。

可我之前加的那些 “结构”,反而成了绊脚石:没用到工具调用,就没法蹭上 MCP 生态的红利;不管啥需求都拆章节,太死板,很多情况不适用;而且并行写的章节拼起来,总感觉衔接不上,特别散。

后来我改成了多智能体系统,本以为能灵活点,也能用工具了,可又犯了个错 ,还让每个子智能体写自己的章节。

这就碰到了Cognition公司 Walden Yan 说的问题:多智能体之间很难好好沟通,报告还是散的。

直到看到 Hyung 的演讲才反应过来:更新方法的时候,咱们总容易漏拆一些自己加的 “结构”。我虽然换了智能体,却还没丢开 “并行写章节” 这个老思路。

最后我干脆把写作放到最后一步:现在系统能灵活规划研究策略,用多智能体收集信息,等信息齐了再一次性写报告。

结果在 deep research bench 测试里拿了 43.5 分,排进前 10。对一个小型开源项目来说已经不错了,甚至快赶上那些用了强化学习(RL)或者大团队做的 AI 智能体。

从这事里,能总结出 Hyung 演讲里提到的 AI 工程教训,就三条,都挺实在。

搞清楚你给应用加了啥 “结构”。比如我最初的工作流,避开工具调用是因为当时它不靠谱。可几个月后早就不是这样了。Anthropic 联合创始人 Jared Kaplan 最近还说,有时候 “先做个不完美的东西” 反而好,因为模型进步快,很快就能跟上。

第二,模型进步了,就得重新看看那些 “结构” 还合不合适。我就是反应慢了点,没及时跟着工具调用的进步调整思路。

第三,搭架构的时候,得留好拆 “结构” 的口子。

Cognition 的 Walden 和 LangChain 的 Harrison 都提过,AI 智能体的抽象设计有风险,容易让你拆不了结构。

我现在还用 LangGraph 框架,但只敢用它的 “低级” 组件,比如节点、边,这样想改、想重配都方便,还能用上它的检查点这些实用功能。

现在做 AI 应用的设计思路,其实还在起步阶段。但就像 Hyung 说的,盯着咱们 “能预测” 的方向准没错 , 模型肯定会越来越强。

所以做 AI 应用,关键是让它能接住模型进步的红利,别被自己当初加的 “框框” 困住。这大概就是 AI 工程里,最该记住的 “苦涩教训” 了。

新的领域中,大家都属于摸着石头过河,所以只能通过自己的研究了得到更好的成绩。

可是谁也不会将自己的成果送给我们,我们也只能通过自己的努力来赶超。

需要注意的是,再创新的同时也不能忽略细节上的事情。

来源:易霄寒

相关推荐