忘记大模型,英伟达:小模型才是Agentic AI的未来!

360影视 欧美动漫 2025-09-16 07:08 1

摘要:截至 2024 年末,Agentic AI 领域已获得逾 20 亿美元 的初创公司融资,整体估值达 52 亿美元,并有望在 2034 年前逼近 2000 亿美元。先分享一个AI Agent 2025的发展趋势图谱:

本文约1000字,建议阅读5分钟

本文介绍 AI Agent 2025 趋势,凸显 SLM 成本适配优势及 LLM 向 SLM 迁移必然性。

截至 2024 年末,Agentic AI 领域已获得逾 20 亿美元 的初创公司融资,整体估值达 52 亿美元,并有望在 2034 年前逼近 2000 亿美元。先分享一个AI Agent 2025的发展趋势图谱:

Agentic RAG、Voice Agents、CUA、Coding Agents、DeepResearch Agents、Protocols

但,过去两年,大模型参数规模在狂奔:从 7B → 70B → 400B+,几乎所有指标都在涨。是不是所有场景都适合用大模型,NVIDIA发布的研究报告显示:

在大多数 Agentic AI 场景中,小型语言模型(SLM)已足够强、更适配、更便宜,理应成为默认选择。LLM-to-SLM 迁移不是“可选项”,而是“必然趋势”。
现状:2024 年 57bn USD 砸进云基建,只为支撑通用 LLM API,而当年市场规模仅 5.6bn USD(10 倍溢价)。问题:Agent 的绝大多数调用其实只做 重复、狭窄、非对话 任务,却硬要调用 175B 参数的“巨无霸”。模型家族参数量对标 LLM 表现效率提升Microsoft Phi-3-small7B追平 70B 级代码生成↑70×吞吐NVIDIA Nemotron-H-9B9B追平 30B Dense LLM↓10×FLOPsHuggingFace SmolLM2-1.7B1.7B追平 14B 模型可跑手机端Salesforce xLAM-2-8B8B工具调用 SOTA,超越 GPT-4o—

SLMs在延迟、能耗和浮点运算次数上比LLMs便宜10到30倍,LoRA、DoRA微调只需少量GPU小时,并能够在消费级GPU上本地执行,

来源:数据派THU一点号

相关推荐