李彦宏称 DeepSeek 非万能,有幻觉多、速度慢、成本高等痛点

360影视 日韩动漫 2025-04-25 20:34 2

摘要:4 月 25 日,在武汉举办的 Create 2025 百度 AI 开发者大会上,百度创始人李彦宏围绕 “模型的世界,应用的天下” 主题发表了近一小时的演讲。在演讲中,李彦宏分享了对应用落地、多模态、智能体等领域的独到见解,同时对当下热门的 DeepSeek

4 月 25 日,在武汉举办的 Create 2025 百度 AI 开发者大会上,百度创始人李彦宏围绕 “模型的世界,应用的天下” 主题发表了近一小时的演讲。在演讲中,李彦宏分享了对应用落地、多模态、智能体等领域的独到见解,同时对当下热门的 DeepSeek 模型提出了自己的看法,直言其并非万能,存在诸多痛点。

李彦宏一直秉持 “若无应用,单纯内卷基础模型毫无意义” 的观点。在此次大会上,他再度强调,模型虽会加速迭代,但未来真正主宰世界的是应用,应用才是价值创造的核心。他指出,开发者只要找准应用场景、选对基础模型,并掌握一定调优方法,基于此开发的应用便不会轻易过时。

面对近来横空出世、备受瞩目的 DeepSeek 模型,李彦宏透露,百度各业务线已积极接入。百度智能云第一时间在千帆平台部署 DeepSeek,为众多开发者提供免费调用机会;文小言、百度搜索、百度地图等业务也接入了 DeepSeek 满血版,在诸多内外部场景中取得了良好效果。然而,李彦宏也明确指出,“DeepSeek 并非万能”。

从功能维度看,DeepSeek 目前仅能处理文本,无法理解与生成图片、音频、视频等多媒体内容。但众多百度智能云客户对多模态理解和生成能力有着强烈需求,这一局限使得 DeepSeek 在部分场景下难以满足客户需求。在电商直播场景中,若 DeepSeek 因幻觉生成不实的 “买一送一” 优惠信息,商家将遭受巨大损失。李彦宏还提到,DeepSeek 幻觉率较高,这一问题严重影响其在一些对准确性要求极高场景中的应用。

成本与效率层面,DeepSeek 也存在明显短板。李彦宏称,DeepSeek 存在速度慢和成本高的问题。与中国市场上多数大模型相比,DeepSeek 满血版的 API 调用价格更高,响应速度更慢。高昂的成本让众多开发者和企业望而却步,限制了其大规模应用与普及。

为解决这些问题,李彦宏在大会上正式发布了文心大模型 4.5 Turbo 和文心大模型 X1 Turbo。这两款新模型主打多模态、强推理、低成本三大特性。多模态将成为未来基础模型的标配,纯文本模型市场份额将逐渐缩小,而多模态模型市场前景广阔。在成本方面,文心大模型 4.5 Turbo 每百万 token 输入价格仅 0.8 元,输出价格 3.2 元,较文心 4.5 速度更快,价格下降 80%;文心大模型 X1 Turbo 每百万 token 输入价格 1 元,输出价格 4 元,在性能提升的同时,价格相较文心 X1 再降 50%。百度通过降低大模型成本,旨在消除开发者开发 AI 应用时面临的成本阻碍,推动企业低成本部署大模型,促进各行业 AI 应用的爆发。

在 AI 应用加速落地的当下,智能体领域备受关注。李彦宏特别提及代码智能体 Coding Agent 赛道,他认为未来企业完成任务将高度依赖代码智能体,传统逐行编写代码的方式将难以在竞争中取胜。百度工程师已普遍使用文心快码 Comate 辅助代码生成,非技术人员则借助秒哒进行无代码编程。去年 11 月百度世界大会发布的秒哒,具备无代码编程、多智能体协作、多工具调用特性,今年 3 月已向全社会开放,用户可通过秒哒一句话生成应用。

李彦宏还谈到了模型上下文协议(MCP)。他认为 MCP 为 AI 应用开发中的难题提供了解决思路,它如同 AI 的 “万能插座”,开发者按 MCP 标准编写一次接口,即可大幅降低开发负担,提升 AI 获取信息、调用工具的能力。李彦宏将当下基于 MCP 开发智能体类比为 2010 年开发移动 APP,称百度将推动更多应用和服务接口兼容 MCP,助力开发者拥抱 MCP,共建繁荣生态。

此次百度 AI 开发者大会上,李彦宏对 DeepSeek 的客观评价以及百度在模型与应用方面的系列举措,为行业发展提供了新的思考方向,也有望推动 AI 技术在应用层面取得更大突破。

来源:人工智能学家

相关推荐