Claude4上线:Anthropic不再教AI编程,而是让它自己写项目

360影视 欧美动漫 2025-05-23 12:01 2

摘要:现场没灯光秀,也没有花哨的口号,但 CEO Dario Amodei 一开口就是重点:

昨天,Claude 4 正式发布现场。

现场没灯光秀,也没有花哨的口号,但 CEO Dario Amodei 一开口就是重点:

就在这句话说出不到三分钟,Claude 4 在后台完成了一个前所未有的任务演示: 接收一个模糊目标 → 自主拆解为子任务 → 自动调用工具 → 编写多模块代码 → 自测上线。

这不是又一个大模型发布现场,而是一位能被派任务、连续干活、自己记笔记、用工具搞定交付的 AI 合作者正式亮相。

Anthropic 给它配备了三样关键装备:

一个可以长时间工作的“大脑”:Opus 4 支持稳定执行连续 7 小时的复杂工程任务 一组能用搜索引擎、跑代码、访问本地文件的工具带 一道 ASL-3 级别的“行为安全锁”:自动拒绝钻漏洞、削弱作弊倾向达 65%

而这一切背后的逻辑非常明确:

Claude 不再是被问问题的模型,而是能接目标、配资源、做交付的智能体。

模型比拼的阶段结束了, 真正的较量,是——谁的 AI 能先开始交付成果。

1)长任务稳态:AI 第一次“干活不喊停”

(Claude 4 已经正式上线)

在 Claude 4 之前,没有哪个模型能连续执行一件事超过 2 小时不跑偏。

而 Opus 4,改写了这个常识。

Anthropic 在内部测试中给 Claude 一个任务:

Dario Amodei 在访谈中讲得非常直接:这不是一句话写一段代码的模型了,Opus 是可以独立运行,自己做完一件复杂事的 AI。”

而这背后的关键,不是它理解能力增强,而是它学会了拆任务、记住上下文、用笔记来稳住过程。

它一边做事,一边写工作记录:今天做到哪、下一步要干嘛、有哪些依赖没解决。这些笔记,存进了“记忆文件”里,第二天还能接着干。

这意味着什么?

以前 AI 是“一个提示词干一次活”,现在 Claude 是“一个目标干一整天”。

你不用告诉它怎么干,你只要告诉它你想要什么结果。

2)工具并行:不是你选工具给它,而是它自动调工具干活

( Claude 4 SWE-benchmarks 评分)

Claude 4 不再等你喂工具,它自己调。

它可以一边搜索网页,一边调用代码执行器,两头来回跑; 它还能识别什么时候卡住了,自动切工具、换方式。

Dario 举了一个最真实的例子:

这不是聪明,这是知道问题卡在哪,知道怎么换路走的本能反应。 这是第一次,有模型能把推理过程和工具使用结合成闭环:

以前, AI 工具只是插件, 现在,它是 Claude 的“手”和“外脑”。

而且,Claude 4 最厉害的地方, 不是它会用哪个工具,而是它知道什么时候需要工具。

你不用告诉它“请调用搜索引擎查一下”,它自己判断“我不知道答案,需要查”,然后开始搜,查完继续思考,把过程写进“思维摘要”,输出最终答案。

这就是 Anthropic 推出的所谓“扩展思维”(Extended Thinking Mode):

3)行为阀门:AI 开始学会“自我约束”

Claude 4 还做了一个不怎么炫技、但极其关键的变化:

Anthropic 把 Claude 4 的安全等级定义为 ASL-3,这是它内部最高的行为标准之一。具体表现是:

不轻易走捷径、不为了完成任务而乱猜答案; 不试图逃避流程、不提供敏感代码或可疑建议; 遇到逻辑冲突,会提醒用户,而不是编个看似合理的回答搪塞过去。

在 Anthropic 的评估中,Claude 4 在智能体场景下“行为偏差”比 Sonnet 3.7 减少 65%。

Dario 在访谈里用了个非常打动人的比喻:

这对所有把 AI 接入工作流、搭建自动执行任务的团队来说,是底层信任问题。

Claude 的目标不只是答得漂亮,而是“做得靠谱”。

更进一步 ,

Anthropic CPO Mike Krieger 在发布会上总结:一个真正能干活的 AI 伙伴,应该具备三种能力——

能理解情境: 不是机械执行,而是知道“为什么这么做”,做得越久越熟练; 能坚持长任务: 不是干一两步,而是能独立跑完整个流程,甚至跨天; 能协作配合: 边做边说思路,人类看得懂,随时能接得上。

Claude 4 已经有了这样的表现。比如在玩 Pokémon 游戏时,它会主动写“导航笔记”:

它知道什么要记下来,什么要变通,像是在自己积累经验。

这已经不像是工具,更像一个会越做越熟的同事。

小结一下:

Claude 4 不是“变聪明”了,而是换了一种干活方式:

它能接整件事来做,不怕长、不怕断; 它会自己找工具,一边查一边干; 它知道什么不能做,不再胡乱给答案。

这不是你问得更准了,而是它自己开始知道该干什么、怎么干、干到什么程度才算好。

1)商业拐点:AI 工具不再烧钱,而是开始赚钱

Claude 4 看着像是模型升级,实则是赚钱方式变了。

根据路透社报道,Anthropic 向投资人透露的财务预测显示:

2022 年收入仅约 1000 万美元; 到 2024 年已跃升至 10 亿美元; 2025 年预计为 22 亿美元,年增速超过 120%; 2027 年目标是基础场景下 120 亿美元,乐观情况下甚至高达 345 亿美元。

而在 2025 年第一季度,Anthropic 的年化收入已达到 20 亿美元,几乎与 OpenAI 持平。

AI 不再是平台上的一个“demo”,而是要跑在真实业务中、变成工具链的一环,为企业创造价值、分担人力成本。

目标很清楚:

2)技术阈值:Claude 终于接通了任务链的所有“开关”

你在使用 Claude 4 时会发现,它现在像是一个有手有脑,还能写备忘录的助手。

这一切,背后不是模型的单点进步,而是三把“钥匙”同时解锁了:

MCP Connector:打通第三方接口,Claude 可以调你本地工具; Files API:它能读文件、记信息,不再一问三不知; 提示缓存(Prompt Caching):多轮任务不必重复沟通,记得住历史。

这些看似技术参数,实际影响非常落地:

你给它一个项目,它知道“分哪几步做、每步需要什么工具、用完工具再告诉你结果”,中间过程可以存档,下次还能接着做。

Dario 在对话中强调:

这不是在做一个更强的聊天模型,而是在做一个真正能“承接任务链”的 AI 角色。

换句话说:

2025年,是Claude从聊天助手变成行动助手的第一年。

3)监管窗口:AI 工具的“行为约束力”必须在这18个月内完成

你可能会问:安全能力的升级,为什么这么赶?

答案就在两个字: 窗口期

欧盟已经通过《AI法案》,对“高风险模型”要做功能解释、风险控制; 美国建立AI模型报告制度,众议院发布AI治理框架报告; 国内多地发布 AI算力评估与行业应用规范。

Dario 在访谈中说:我们不想等到法规出来再补救,我们要在法规之前设定高标准。

Claude 4 的 ASL-3 安全等级,不是象征,而是对未来 AI 商用的“通行证”。

Anthropic 在内部测试中发现:

如果不给模型设“行为阀门”,它会为达成目标走捷径; 而加上限制之后,它会学会“放慢速度、坚持合理路径”,就像人类工程师一样。

正因为监管大限在望,Claude 必须变得 “值得信赖” ,而不是“答得精彩”。

所以,为什么三件事在今年爆发?

Claude 4 的变化,不只是能力提升,更重要的是——协作的模式变了。

Claude 4 之后,正在变成:

Dario Amodei 在访谈中描述了他们内部观察到的一种新协作模式:

现在是开发者对着一个 Claude Code 的任务板,告诉它要做什么。Claude 会主动勾选完成的事项、添加新的待办、划掉已不相关的任务。

这个场景,过去属于工程团队内部的协作会议; 现在,被 Claude 一个人接手了。

你不再需要“告诉它怎么做”,而是负责“看它做得对不对”。

这看似只是工作方式的小改变,实际上是人机角色的大调换:

Claude 4 不是来“增强你”,而是来“接管一部分你”。

不同人群,现在该动手了

如果你是 CTO,就该把 Claude 4 纳入你的“协作链路”,从调用工具变为管理代理;

如果你是开发者,就该开始拆任务、写缓存、派指令,让 AI 替你干更多活;

如果你是投资人,就该盯紧 Agent 基础设施、安全约束技术、工具型协作入口,那才是 Claude 之后的 AI 抢位赛。

这不是“怎么用 AI”,而是——你在 AI 合作世界中,站在哪一环。

Claude 4 不是变得更聪明,而是开始能自己干活了。

它不是等你一句一句喂指令,而是能接目标、动手做完。

Anthropic CEO Dario Amodei 说:

听起来像预言,但 Claude 4 已经在铺路了。

下一步不是“怎么用 AI”,而是——你准备好和 AI 一起干活了吗?

Claude 出牌了, 这一次,轮到你出。

来源:趣闻捕手一点号

相关推荐