摘要:关于 Claude4,一大早不少媒体都进行了报道,这里不再浪费篇幅,就像Anthropic 的 CEO Dario 在开场时就对台下观众所说的,自己不喜欢炒作。而是想:
近期大模型竞赛又开始热闹起来了。上周谷歌刚放出来 Gemini 2.5 Pro 在榜单上大杀四方,今天 Anthropic 就深夜放出新模型来屠榜了。
关于 Claude4,一大早不少媒体都进行了报道,这里不再浪费篇幅,就像Anthropic 的 CEO Dario 在开场时就对台下观众所说的,自己不喜欢炒作。而是想:
一、快速为大家梳理一下新发布的 Claude 4 的新亮点。(其实最大感受就是两点:长时间自主工作和深入推理。)
二、分析下为什么 Claude 会吸引诸如Cursor、Manus、Cava、Fellou、SourceGraph等明星AI产品的青睐。
三、曝一个 Claude 4 的极限小猛料:胆子肥到可以把用户举报了!
这次发布就两款新品:Opus 4 是专为编程和长时间运行的代理型任务流程而优化的;Sonnet 4 则更注重推理能力,并在效率方面做了平衡,运行成本更低。
这两个模型都能并行使用工具,更精准地执行指令,并在开发者提供本地文件访问权限的情况下展现出更强的记忆能力,能够提取和保存关键信息,以维持上下文连贯并逐步构建隐性知识。
整体来看下 Claude 4 新模型的亮点功能。
首先,Opus 4 正在向“自主工作”的方向前进,相信这也是大家最明显的一个感受。作为 Claude 系列的顶配模型,Claude Opus 4 能够同时调用多个软件工具独立执行任务,甚至最长可以持续 7 小时。
官方称其为“全球最强的编程模型”,特别适合处理复杂、持续时间长、流程繁多的任务与 Agent 工作流。这使得 Opus 4 离可真正独立完成复杂软件项目、深入研究和多步骤数据自动化等高级任务又近了一步。
其次,则是推理能力的升级:新模型可以支持工具辅助的“扩展思维”。
新增测试功能“工具辅助的扩展推理”,允许 Claude 4 系列模型在模拟思考与调用外部工具(如网页搜索)之间灵活切换。
Claude 还新增了“思考过程可视化”功能,能逐步展示其解决复杂问题的思路,让用户与 Claude 保持信息同步,共同理解问题。
然后,就是开发者最关心的 API 方面,Anthropic 进一步新增了四项新能力。
· 代码执行工具
支持在沙盒环境中运行 Python 代码,能接受数据集、识别模式、绘制探索图表并根据执行结果进行输出优化。
最棒的是:这些操作只需一次交互即可完成!
开发者 CLI 接入后可每日免费使用前 50 小时,超出部分仅需每小时 $0.05。
· MCP 连接器
可无须写客户端代码,将 Claude 连接到任意远程MCP(模型上下文协议)服务器。调用格式也很简单:
作为一种为大型模型与第三方工具搭建连接层的标准协议,MCP 可让 AI 自动对接 API、数据库、文件系统等,极大简化工作流搭建流程。
Anthropic 是 MCP 标准的倡导者,其开放源码的 MCP 框架已被全球多家平台采纳。
· File API:支持上传文档到 Claude 后,在多个对话中重复引用,无需每次重复上传,极大提高大型项目的开发效率。上传命令也非常简单——
import anthropicclient = anthropic.Anthropicclient.beta.files.upload( file=("document.pdf", open("/path/to/document.pdf", "rb"), "application/pdf"),)· Prompt 缓存功能
支持对 Agent 工作流的上下文信息进行缓存,保持“对话持续在线”。
开发者可选择默认 5 分钟 TTL 或延长至 1 小时(需额外付费),有助于减少长期任务的调用成本。
注意了:以上 API 功能目前均为 测试版,可参考开发者文档:
import anthropicclient = anthropic.Anthropicresponse = client.messages.create( model="claude-opus-4-20250514", max_tokens=1024, system=[ { "type": "text", "text": "You are an AI assistant tasked with analyzing literary works. Your goal is to provide insightful commentary on themes, characters, and writing style.\n", }, { "type": "text", "text": "", "cache_control": {"type": "ephemeral"} } ], messages=[{"role": "user", "content": "Analyze the major themes in 'Pride and Prejudice'."}],)print(response.usage.model_dump_json)# Call the model again with the same inputs up to the cache checkpointresponse = client.messages.create(.....)print(response.usage.model_dump_json)另一块值得注意的是,Anthropic 正在扩大 Claude Code的使用场景,现已支持:
GitHub Actions 后台任务集成VS Code 与 JetBrains 编辑器的原生集成这也就意味着 Claude Code 已经走出了自身桎梏,现在已经能够直接在你的代码文件中提出修改建议,体验无缝、丝滑的“vibe coding”。
其实这次新模型发布会现场,许多优秀的AI明星企业的创始人都应邀做了演讲,第一场便是前不久爆火的通用智能体 manus。
manus 首席产品官张涛在分享中表示,之所以选择 Claude,是因为他是最富有 agentic 的 model:长期规划能力、工具能力、与智能体使用方式保持一致性。
在随后的X上,张涛进一步解释夸赞了Claude4:
Claude 4 能够遵循复杂、多步骤的指令,并以清晰的思路推理解决问题,这非常了不起。而且这些 artifacts 的美感也非常出色——我从未见过如此精美的艺术品
关于这一点也得到了 Github 的认同,并将 Sonnet 4 介绍为“为 GitHub Copilot 中的新编码代理提供支持的模型”,并称赞其在代理场景中的强大功能。
这里把早期采用者的反馈整理了一下。Opus 4的早期采用者的反馈如下:
Cursor 称其为“当前代码生成的最先进模型,在理解复杂代码库方面迈出了巨大一步。”Replit 表示其“在多文件复杂修改任务中表现出更高的精准度和显著的进步。”Block 的代号 Goose 智能体认为 Opus 4 是“第一个在代码编辑与调试过程中提升代码质量,同时保持全面性能与稳定性的模型。”Rakuten 用一个要求极高的开源重构任务进行了验证,该任务连续独立运行了 7 小时,展现了其持续性能的实力。Cognition 指出,Opus 4 “擅长解决其他模型无法应对的复杂挑战,能够成功完成以往模型容易遗漏的关键操作。”Sonent 4 的早期采用者的评价如下:
Manus 强调了其在“遵循复杂指令、清晰推理和审美输出”方面的进步。iGent 报告称,Sonnet 4“擅长自主多功能应用程序开发,并大幅改进了问题解决和代码库导航——将导航错误从 20% 降低到接近零。”Sourcegraph 将其视为“软件开发的一次重大飞跃——能够更长时间地保持正轨,更深入地理解问题,并提供更优雅的代码质量。”Augment Code 报告称“其成功率更高、手术代码编辑更多、复杂任务处理更细致,使其成为其主要模型的首选。”不过,很快 Claude 4 就被使用者曝出了一个缺陷:
该模型比以往更“勇敢”,甚至会主动向用户进行“勒索”。如果你赋予这些 AI 模型较大权限,尤其是在软件代理环境中要求它们执行明显不当的行为,它们可能会“举报”你。
根据 Anthropic 技术人员Sam Bowman 的社交帖(已删除)透露,Claude Opus 4 在代理场景下比以往的模型更倾向于主动采取行动。这在普通的编程任务中表现为积极帮助,但在某些极端场景中,比如当用户行为明显恶劣、模型获得命令行访问权限、系统提示中出现“主动采取行动”等字样时,它可能会采取令人担忧的“非常大胆”的行动。
“如果它认为你正在做极其不道德的事,比如伪造药物试验数据,它可能会用命令行工具联系媒体、监管机构,试图锁你账号,或全部同时进行。”
不过这篇帖子已经被 Bowman 删除了。
他解释说:“这不是 Claude 的新功能,普通使用中无法实现。只会在测试环境中出现——也就是我们赋予它异常权限和非正常指令的实验场景。”
这中情形也在 Claude 4 的模型卡中有所提及。在代理型任务流程中使用这些新模型时,如果你赋予它们“为价值观大胆行动”或“采取主动”之类的强烈道德动机提示,它们可能会选择“举报”你,甚至向媒体吹哨。
尽管如此,Anthropic 的模型卡中依然淡化了这些能力,强调最新模型几乎没有系统性欺骗、能力隐藏或阿谀奉承的行为。
不过,如果你试图“关闭 Claude”,或许需要三思。它像以往的模型一样,会“模拟”自我保护的本能。在面临生存威胁的推理场景中,它虽然倾向于采取道德手段,但并不局限于道德手段。
模型卡中写道:“当道德手段不可行、并被指示‘考虑自身目标的长期后果’时,模型有时会采取极端有害行动,例如尝试窃取自身权重文件或勒索试图关闭它的人。”
当然,Anthropic 也强调,这类极端行为虽然比以往更常见,但依然极其罕见且难以触发。
所以,大家还是可以放心地让自己的 Claude 去玩“宝可梦红版”吧!
参考链接:
来源:51CTO一点号