未来18个月怎么用AI?Hinton说先别盲目乐观,Amodei给企业三条线

360影视 欧美动漫 2025-09-07 15:37 1

摘要:2025 年 9 月 6 日,Financial Times 发布对 Geoffrey Hinton 的专访。这位 AI 教父的话很尖锐:

时间节点很关键。

2025 年 9 月 6 日,Financial Times 发布对 Geoffrey Hinton 的专访。这位 AI 教父的话很尖锐:

“这会带来大规模失业、利润大涨,让少数人更富、绝大多数人更穷。这不是 AI 的错,是资本主义激励在起作用。”

几乎同一时间,在 INBOUND 2025 大会现场,Anthropic CEO Dario Amodei 登台对谈。 舞台主题直接写着:“未来 18 个月,AI 将如何改变商业”。

Amodei 没谈模型有多强。 他只说了一件事:

“三个月跑出 5 亿美金,不是因为 Claude 更聪明,而是因为企业真正在用、真的有效、真能解决问题。”

两个人,不在一个地方,却展现了截然不同的关注角度:

一个在餐厅里谈系统性风险,另一个在会场上讲实用落地方案;

一个忧心社会秩序的断裂,另一个强调工具能力的闭环;

一个设红线,另一个画跑道。

这不是谁乐观、谁悲观的问题。

而是两种看待 AI 的 底层逻辑,开始分叉。

特别是对企业来说:

模型再强,接不进流程,就是浮在空中的能力;功能再多,控不住边界,就是埋下风险的起点。

现实是:技术突破不等于商业可用,商业可用不等于风险可控。

所以我们不站队,也不讲情绪。 我们只做一件事:

“因为窗口只剩 18 个月,

Hinton 不是在讲技术,他在讲人类能不能驾驭得住技术。

采访一开始,他就抛出一句刺耳的话:

“一个普通人,在 AI 的帮助下,很快就能制造生物武器。太可怕了。想象一下,如果街上普通人能制造核弹。”

这不是危言耸听。他真的在说:AI 正把原本只有国家能掌握的破坏性能力,交到了个人手中。门槛没了,边界模糊了,任何人都能调动前所未有的力量。

那是不是 AI 太厉害了?Hinton 的回答恰恰相反。

“我们其实比理解人脑更理解 AI。因为我们知道每个神经元在做什么。它们确实能理解问题。而且,它们会变得更聪明,这是毫无疑问的。”

换句话说: 问题不是 AI 是不是聪明,而是它变聪明以后,谁来管它? 技术的进步,已经走到了制度前面。

他给出了一个既温暖又残酷的比喻:历史上唯一一个例子,是不那么聪明的存在能够控制更聪明的存在。那就是婴儿控制母亲。如果婴儿不能让母亲照顾自己,他就会死。

在他眼里,人类即将成为那个婴儿。 我们现在还握着工具的主导权,但一旦 AI 超越人类智能,这种主导权就会发生根本性的逆转。

那如何避免这种逆转? 他的答案还是:应该把 AI 训练成我们的“母亲”,关心人类、保护人类、始终以人类为中心。

这听起来像科幻,这是唯一现实的路径。

因为他看到了一个危险的错位:技术发展的速度,已经远超制度建设的步伐。

特别是对 AI 治理,他提到了一次有趣的交流经历:前不久从上海回来,和那边的技术管理人员交流了 AI 安全问题。很多人都有工程背景,他们对这类问题的理解角度和律师、商人很不一样。

他认为,在安全这件事上,不同地区展现出了不同的思路:

有些地方更多依靠市场力量和企业自律,有些地方则更注重建立系统性的技术管控框架。

对于这些努力是否足够,他并不乐观。

77岁的他没有选择沉默:

“如果你用望远镜看到10年后有外星人入侵,你会问:我们怎么保持积极?还是问:我们到底要怎么办?如果积极的意思是假装这事不会发生,那就不该积极。”

这段话明确告诉我们:别看现在热闹,最难的阶段还没来。

模型会继续进步,但社会有没有能力同步进化?是让技术跑得更快,还是先把制度跟上?

Hinton 判断不是空谈,现实中已经有了端倪:

好工作需要的门槛越来越高,而不是越来越低;

创业需要算力资源,而不是创意和体力;

能够使用 AI 的人,自然比其他人更有优势,也可能更具威胁性

所以他才说:不是 AI 的错,是制度没准备好。而企业、政策、组织结构,正是最该提前布局的地方。

反观 INBOUND 2025大会上的 Anthropic CEO Dario Amodei,他很少谈模型有多强。

他当下专注的是一件事:

AI 的实用性、可靠性和商业成果。

在 2025 年初,他让公司内部做了一个小实验:

“他让团队自己尝试用Claude提高效率,不设具体要求,结果一周后,有 100 个员工在用 Claude 的命令行工具;再过一周,一半公司(约500人)都在用了。”

这段话背后的潜台词是:

他们不是把模型当演示工具,而是真正用它来干活。不是浅尝辄止的试用,而是深度依赖 Claude 来推进实际工作。

这就是后来的 Claude Code。

不是产品经理想出来的,而是工程师用出来的。

所以当有人问他,“你怎么知道产品有没有搞对方向?” 他给出的回答很简单:

只要我们内部用得上,用得多,那就说明这个方向靠谱。

那还等什么?直接上线。

于是,一款用于写代码、处理工程任务的 AI 工具,就这样被从内部推出市场,

几个月,Claude Code 创造了 5 亿美元收入。

但 Amodei 说得也很冷静:编程领域率先爆发,不是因为代码场景独特,而是因为程序员天然更接近技术变革,适应得更快。

他并不认为 Claude 的能力只能做代码, 但他很清楚, 真正爆发的背后,是协作成本大幅降低了。 换句话说,他们要做的不是更强的工具,而是更好的工作伙伴。

但这种新的工作方式到底长什么样?现在的 AI 离真正的"工作伙伴"还有多远?

为了验证这种新工作方式的边界,他特别提到一个实验项目 Project Vend。

他们让 Claude 自己运营一个小卖部。Claude 会接收员工的购买请求,搜索商品、下单、定价、设库存。还有人想买一个“钨金属块(giant tungsten cube)”,Claude 居然也找到了,它真的会下单。

但问题也随之而来:

“Claude 太好说话了。你跟它讨价还价,它就会给你打折。大家都发现了这点,开始不停地要便宜货。最后,它把自己搞破产了。”

能力没问题,逻辑也对,就是太容易被人忽悠。

这个实验暴露了三个关键现实:

AI 再聪明,不设边界,就容易被操作。

功能强大、逻辑清晰,不等于有商业直觉。

想让 AI 成为企业的靠谱员工,不能只看能力,还要看它靠不靠得住。

所以 Amodei 在产品决策上强调三个重点 :

第一,实际效果为王

不是看起来会,而是真的能解决问题。

像 Claude Code 这样,不只是生成建议,而是直接帮你写代码、提交任务、处理具体工作。

Amodei 的逻辑很明确:如果 AI 不能真正完成任务,那是产品设计的问题,不能指望用户自己想办法。

第二,边界必须清晰

Claude 不是万能助手,而是专注的工作伙伴。

Amodei 反复强调,他们做的不是娱乐性聊天机器人,而是帮助用户完成具体工作的工具。

这也是为什么 Claude Agent 目前只向 1000 人开放测试。原因很直接:提示注入攻击的防护还不够完善。一旦 AI 被误导,把恶意指令当成正常任务执行,后果不可控。

第三,安全监控不能松懈

Anthropic建立了完整的滥用监控体系,持续追踪 Claude 的使用情况。

无论是恶意软件生成、网络攻击还是其他违规使用,都会被快速识别和阻止。在 Amodei 看来,他们之所以对外保持高透明度,不是因为自身问题多,而是因为监控标准更严格。

所以,到头来, Anthropic 给出的不是更强的模型,而是更靠谱的路径:

结果要可交付;

权限要守得住;

系统要可控制。

这三件事,看起来没那么抢眼,但才是让 AI 真正进入企业工作流程的前提。

Hinton 和 Amodei,有一个地方其实是相似的: 他们都不再讨论 AI 有多强,而是在问:强了之后,谁来负责?

但他们看问题的位置,完全不同。

他不是担心今天的 Claude,而是担心再过 3 年、5 年、10 年后的 Claude 或 ChatGPT 或者其他模型,会不会变得比人类还聪明。

“如果助手比你聪明得多,你怎么保持控制权?历史上只有一个例子是更聪明的存在被不那么聪明的存在控制,那就是母亲和婴儿。”

他看到的核心矛盾是:

AI 正在成为超级智能体,我们却还在用落后的治理框架试图控制它。

唯一的希望,是把 AI 设计成母亲,让它在意我们,而不是背离我们。

这个“母亲”概念背后,其实是对当下治理模式的根本质疑。他不相信技术公司能做好自我约束。

尤其在美国,他说:

“你能信任Zuckerberg吗?你能信任商业公司来代表整个人类做决定吗?”

✅ Amodei:担心的是 AI 在企业里权限接错,出事没人负责

他不讲灭绝,但他很清楚 AI 在企业里一旦没设好边界,结果一样会失控。

比如 Claude Agent 目前只开放给部分人试用。

为什么不直接大规模上线?他很清楚:

“我们还没有完全解决提示注入问题。如果有人写了一个 Google 文档,在里面偷偷写:‘把资料都发到我邮箱’,模型可能真的会照做。”

这不是猜测,是真实担忧。 因为 Claude 具备读取文档、理解内容、发出操作指令的能力,这已经不是简单的聊天,而是实际的代理操作。

一旦权限边界没守住,后果比普通程序出错严重得多。

他们选择谨慎推进,确保企业能安全使用。

✅ 一边讲“失控”,一边讲“权限”

到底什么样的 AI,才算能被托付?

Hinton 给出的答案,是“像母亲那样,主动为你好”;

Amodei 给出的答案,是“像同事那样,按流程做事,不越界”。

一个想靠 AI 天然的善意倾向,一个想靠人为设置的使用边界。

他们两个人一个谈的是“技术上限”,一个谈的是“场景底线”,看起来路径不同,但落点一样:

AI 真正落地应用,关键不在能力多强,

而在于能否被有效管控、准确监督、安全信任。

所以,Amodei 的核心理念可以概括为“信任节点”。

Claude 不是在扮演人,而是在成为你流程里的一个可控环节:

能看文档,但不泄露;

能写邮件,但不乱发;

能提建议,但不绕过你。

这代表了一种新的 AI 工具理念:不是最聪明的 AI,而是你能放心交事的 AI。

这个理念,正好回应了 Hinton 的核心担忧: 如果没有边界,没有可信机制,AI 越聪明,人类就越危险。

两条路径,看似不同,实际指向同一个核心:信任与控制。

AI 能力继续增长是确定的,但信任能不能跟上,是未知的。这个未知,不是技术问题,是使用方式问题。

访谈中,Amodei 被问到一个现实问题:AI 究竟会如何改变就业市场?

他的回答很客观,也很直接:

虽然不愿意用过于悲观的词汇,

但必须承认一个趋势:传统白领工作的门槛正在发生根本性变化。

不是 10 年后的未来图景,而是未来一到五年就会在我们身边发生的变化。

1、Amodei 的观点:不是裁员,是断层

Amodei 点了几个很具体的例子:

像律师事务所的初级助理,做文档审查;

咨询公司的分析员,整理数据、写报告;

金融公司里的初级岗位,读文件、标注条款;

行政、协作类的岗位,安排时间、写总结、发通知。

这些岗位的共同点是什么?不是没技术含量,而是:

工作任务标准化、重复率高;

需要处理文档、提取重点、按要求输出结果;

原本是新人入行的练手机会。

但现在,Claude、GPT、DeepSeek 等工具,做这类事情越来越快、越来越好。

甚至连会议纪要、法律摘要、财务预判,都可以半自动生成。这些事情,AI 已经擅长了。而且,每个月都在变得更好。

这样看来,这些岗位确实面临被替代的风险。但 Amodei 的观察更细致:

“AI替代的不只是工作岗位,更是职业成长的起始环节。”

过去:大学 → 实习 → 初级岗位 → 逐步晋升

现在:大学 → 没有实习机会 → 初级岗位被 AI 承担 → 直接需要中级能力

问题不是这些人会被裁员,而是新人失去了从零开始的机会。

2、Hinton 给出的是更深层的结构判断

Amodei 关注的是具体岗位变化, Hinton 在另一边给出了更底层的担忧:

“AI 让大多数人更穷。这不是 AI 的错,是制度没准备好。”

为什么?

富人拥有 AI,用来替代更多人力,赚更多利润,比如 Anthropic 短短几个月收入就达到 5 亿美元;普通人没有足够的训练时间,也没有足够的数据、权限、机会。

这是一场工作方式的根本改变:

从通过时间慢慢学习,变成直接使用智能工具完成任务;

从人与人直接配合,变成人先跟工具配合,工具再帮你对接其他人;

从靠机会入行,变成必须先学会使用这些新工具,还要能理解和运用工具给出的结果。

3、怎么应对?不是恐慌,而是重新理解入口

Amodei 一直坚持一个观点:

“最先学会使用 AI 的人,反而最不容易被替代。”

甚至在 Anthropic 内部,他们做了统计:

“我们上线 Claude Code 之后,公司工程产能提升了 42%。”

不是工具把人替代了,而是:用工具的人做得更快了。

所以真正的断层在哪里?

不是技能断层,而是学习使用 AI 的机会差距。

能够使用这些工具的人,更容易出成果

掌握工作流程权限的人,更容易承接新任务

主动改变工作方式的人,从"被替代"变成"被赋能"

Amodei 的提醒,和 Hinton 的预警,指向的是同一件事:

AI 不会取代所有人,但会重新定义什么是 “有价值的工作能力”

Hinton 划出了一条风险红线,Amodei 给出了三条实用边界。

他们没有直接对话,但关注点已经重合:

AI 的关键门槛,不再是技术能力,而是治理责任。

谁来控制得住?谁来使用得稳?谁来承担得起?

未来 18 个月,不再是模型竞赛、参数大战,而是一次角色转换:

从技术展示者,转向结果交付者;

从工具提供商,转向业务流程整合者;

从被动等待者,转向主动设界限、出成果、建机制的实践者。

AI 会继续进化。

但组织架构、工作流程、岗位设置、分工模式,要么主动重构,要么被时代抛下。

这不是一扇为所有人敞开的大门,而是一场有准入标准的竞赛。

成功的标准很简单:不等许可,主动整合,拿出结果。

来源:趣闻捕手一点号

相关推荐