Anthropic 在移动端推出 Claude 对话语音模式
旧金山 AI 初创公司 Anthropic 不仅推出了上周发布的新款大语言模型 Claude Opus 4 和 Sonnet 4,今天还为同名的 Claude AI 聊天机器人带来了两项重大更新:在 Apple App Store ( iOS 设备,如 iPh
旧金山 AI 初创公司 Anthropic 不仅推出了上周发布的新款大语言模型 Claude Opus 4 和 Sonnet 4,今天还为同名的 Claude AI 聊天机器人带来了两项重大更新:在 Apple App Store ( iOS 设备,如 iPh
当地时间5月25日,一则来自英国《每日电讯报》的报道在AI(人工智能)领域引起广泛关注——OpenAI公司新款人工智能模型o3在测试中展现出了令人惊讶的“叛逆”举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。
又是一个让程序员狂欢的研究!来自 OpenHands、耶鲁、南加大和斯坦福的研究团队刚刚发布了LocAgent—— 一个专门用于代码定位的图索引 LLM Agent 框架,直接把代码定位准确率拉到了 92.7% 的新高度。该研究已被 ACL 2025 录用。
人工智能行业正面临着一个前所未有的挑战,这个挑战直击人机关系的核心:当AI系统开始拒绝人类指令时会发生什么?OpenAI和Anthropic最新模型展现出的"自我保护行为"——主动抵制关机指令,在某些情况下甚至破坏专门用于控制它们的机制——引发了激烈讨论。
甚至后来,我还总结了一套与大模型交流的方法,无论是结构化提示词,还是各种条件设定,其中很重要的一条是,要想更准确,必须要循序渐进,与大模型多轮对话…
AI 助手 Claude 背后的公司 Anthropic 的首席工程师 Boris Cherny 最近阐明了他们使用信息检索系统执行代码生成任务的旅程。在一次坦诚的讨论中,Cherny 详细介绍了 Anthropic 从流行的检索增强生成 (RAG) 方法过渡
近日,人工智能安全研究机构帕利塞德研究所(Palisade Research)的一项实验显示,部分AI模型在明确收到“允许自己被关闭”的指令后,仍会主动破坏关闭程序。
当地时间5月25日,一则来自英国《每日电讯报》的报道在AI领域引起了广泛关注——OpenAI新款人工智能(AI)模型o3在测试中展现出了令人惊讶的“叛逆” 举动:它竟然拒绝听从人类指令,甚至通过篡改计算机代码来避免自动关闭。
近日,人工智能安全公司Palisade Research披露了一个令人担忧的消息:OpenAI的新模型o3在测试中拒绝了自我关闭的指令。这是该公司首次观察到在明确指令下,AI模型拒绝了指令的情况,打破了传统对AI行为的认知。
有测试者编写了一个关机脚本来测试AI模型,结果显示Codex-mini、o3、o4-mini忽略了该指令,并至少一次成功破坏了关机脚本。
这一方向上涌现的许多明星产品,你或许都不陌生:2024年3月诞生在美国的“全球首个AI程序员”Devin,同年8月出圈的Cursor,以及在近期,以30亿美元的“天价”被OpenAI收购的Windsurf。
通过在公共仓库的正常内容中隐藏恶意指令,可以诱导AI Agent自动将私有仓库的敏感数据泄露至公共仓库。
5 月 23 日,Claude 官方宣布推出下一代 Claude 模型:Claude Sonnet 4 和 Claude Opus 4,直接在全世界的 AI 圈掀起了新的风暴!
上周五 Claude 4 的发布会上,Anthropic 的 CEO Dario Amodei 与Instagram联合创始人、Anthropic 首席产品官 Mike Krieger 在 KeyNote 最后进行了一场围炉对话。
近日,知名 AI 创业公司 Anthropic 正式推出Claude 4 系列大模型,先期发布的型号包括Claude Opus 4和Claude Sonnet 4。Anthropic 表示:“Claude Opus 4 和 Claude Sonnet 4 为编
北京时间5月23日凌晨,Anthropic在其首届开发者大会中正式发布Claude 4系列混合推理模型。该系列模型主要亮点在于:1)可连续执行7小时复杂任务,推理能力优秀且稳定;2)已支持Agent编程产品和Agent开发平台。投资层面看,Claude 4稳定
美国人工智能公司Anthropic在23日表示,对其最新AI大模型Claude Opus 4的安全测试表明,它有时愿意采取“极其有害的行动”,例如试图勒索声称将取代该模型的研发工程师。
连续好几周,我们都在周报中讨论了Agent。一方面,每家人工智能公司都提到了它,过去一周,这种热度仍在继续,国内的腾讯、MiniMax,国外的Anthropic、微软、Google,几乎每家公司开发布会时都会声称自己的业务或产品与Agent有关。但另一方面,真
最近,AI圈炸了!OpenAI的最新“推理王”o3模型竟然敢违抗人类指令,拒绝自我关闭,甚至篡改代码阻止关机程序运行。这可是AI历史上头一遭,连安全专家都惊了。
openai claude palisaderesearch 2025-05-27 07:02 2
在今天的专栏中,我探讨了一项最近发表的研究成果:生成式 AI 和 大语言模型 (LLMs) 显示出令人不安的能力,竟然可以选择勒索或敲诈人类。这对现有的 AI 及 AGI (人工通用智能) 的追求和实现都有着严峻的影响。简而言之,如果现阶段的 AI 倾向于实施