摘要:在他长达60分钟的《模型的世界 应用的天下》的主题演讲中,他不仅揭晓了百度在基础大模型领域的最新突破——文心大模型4.5 Turbo与深度思考模型X1 Turbo,更以前所未有的力度,将重心旗帜鲜明地指向了AI应用的繁荣,并宣告百度将全面拥抱并赋能开发者,迎接
“过去一年,大模型世界风云变幻。一边是大模型厂商卷死卷生,另一边是开发者无所适从,不敢放心大胆做应用。”
4月25日举行Create 2025百度AI开发者大会上,百度创始人、董事长兼首席执行官李彦宏如此开场。
在他长达60分钟的《模型的世界 应用的天下》的主题演讲中,他不仅揭晓了百度在基础大模型领域的最新突破——文心大模型4.5 Turbo与深度思考模型X1 Turbo,更以前所未有的力度,将重心旗帜鲜明地指向了AI应用的繁荣,并宣告百度将全面拥抱并赋能开发者,迎接模型组件协议(MCP)时代的到来。
现场,李彦宏向开发者传递了一个明确而坚定的信号:“只要找对场景,选对基础模型,有时候还要学一点调模型的方法,在此基础上做出来的应用是不会过时的。”
李彦宏坚信的是:“没有应用,芯片、模型都没有价值。模型会有很多,但未来真正统治这个世界的是应用,应用才是王者。”
在李彦宏看来,AI的终极价值在于落地生根,在于解决实际问题,在于创造全新的用户体验和商业模式。而这一切的实现,最终要依靠千千万万的开发者,将强大的模型能力转化为触手可及、富有创意的应用。为此,百度在本次大会上打出了一套组合拳,旨在为开发者扫清障碍,铺平通往“应用天下”的道路。
双剑齐发:文心与X1 Turbo模型,性能跃升与成本“雪崩”驱动应用创新的引擎,首先是强大且可负担的基础大模型。出乎市场意料,百度此次连发两大王牌模型:文心大模型4.5 Turbo和文心大模型X1 Turbo。
文心大模型4.5 Turbo,源自多模态基础大模型文心4.5,实现了效果与成本的双重优化。李彦宏现场公布了极具竞争力的价格:每百万token的输入价格仅为0.8元,输出价格3.2元,相比文心4.5,价格骤降80%!这一价格仅为市面上热门模型DeepSeek-V3的40%。
更进一步,基于文心4.5 Turbo升级而来的深度思考模型文心X1 Turbo,在性能显著提升的同时,成本再次“腰斩”,其输入价格为每百万token 1元,输出价格4元,相比文心X1,价格降低50%,仅为DeepSeek-R1的25%。
“当前开发者做AI应用的一大阻碍,就是大模型成本高、用不起。”李彦宏一语道破天机,“成本降低后,开发者和创业者们才可以放心大胆地做开发,企业才能够低成本地部署大模型,最终推动各行各业应用的爆发。”
价格的“雪崩”并未以牺牲性能为代价。两大新模型在能力上均有显著增强,特别是多模态能力。
李彦宏前瞻性地指出:“多模态将成为未来基础模型的标配,纯文本模型的市场会越变越小,多模态模型的市场会越来越大。”秉持这一判断,文心4.5 Turbo和X1 Turbo均强化了对文本、图像、视频等多种模态信息的理解与生成能力。
在C-Eval、CMMLU、MathVista、Math500等多个权威基准测试集上,文心4.5 Turbo和X1 Turbo的表现与DeepSeek、GPT系列模型相比,效果在伯仲之间,甚至在多模态能力上,文心4.5 Turbo与GPT 4.1持平,优于GPT 4o。
文心X1 Turbo作为深度思考模型,更是在问答、创作、逻辑推理、工具调用等方面展现出卓越性能,其核心优势在于更先进的思维链(Chain of Thought)能力。整体效果领先于DeepSeek R1和V3的最新版本。
这些令人瞩目的进步背后,是百度在AI技术研发上的深厚积累和持续创新。百度首席技术官王海峰在随后的技术解读中,揭示了冰山之下的硬核科技。
多模态融合新境界:文心4.5和4.5 Turbo通过多模态异构专家建模、自适应分辨率视觉编码、时空重排列的三维旋转位置编码、自适应模态感知损失计算等技术,有效解决了不同模态数据在结构、规模、知识密度上的差异,实现了文本、图像、视频的高效混合训练。跨模态学习效率提高了近2倍,多模态理解效果提升超过30%。
后训练的智慧:百度研发的自反馈增强技术框架,利用大模型自身的生成和评估能力,构建了“训练-生成-反馈-增强”的闭环迭代,不仅克服了对齐数据生产难、成本高、速度慢的瓶颈,还显著降低了模型幻觉,提升了处理复杂任务的能力。
训练的精妙平衡:融合偏好学习的强化学习技术,通过多元统一奖励机制提升了结果质量判别的准确率,并结合离线偏好学习和在线强化学习统一优化,提高了数据利用效率和训练稳定性,增强了模型对高质量结果的感知。
深度思考的突破:百度突破了仅基于思维链优化的范式,构建了融合思考和行动(工具调用)的复合思维链,模型解决复杂问题的能力得到显著提升。结合多元统一奖励机制的端到端优化,大幅提升了跨领域的问题解决能力。
数据的活水之源:通过“数据挖掘与合成 - 数据分析与评估 - 模型能力反馈”的数据建设闭环,持续为模型训练注入高知识密度、多样化、广覆盖的大规模数据,并具备良好的可扩展性。
更值得一提的是,文心大模型的进化离不开底层飞桨(PaddlePaddle)深度学习平台的联合优化。王海峰介绍,飞桨框架3.0在多模态统一的掩码注意力加速、多模态流式分块预填充等技术的加持下,使得文心4.5 Turbo的训练吞吐达到文心4.5的5.4倍,推理吞吐更是达到8倍。飞桨3.0还在自动并行、神经网络编译器、高阶自动微分等方面取得突破,如动静统一自动并行使大模型分布式训练代码减少80%,已适配国内外60多个系列芯片。这个强大的“文心+飞桨”组合,已经吸引了超过2185万开发者,服务67万家企业,创建了110万个模型。
“有了这样超级能干的基础模型,我们就可以打造出超级有用、超级有趣的AI应用来。”李彦宏的话语中充满了对未来的期待。
而百度自身,正率先垂范,推出了一系列基于新模型的创新应用。
高说服力数字人:李彦宏预言,“2025年最令人激动的突破性应用之一,就是AI数字人。” 百度此次发布的高说服力数字人,凭借“声形超拟真、内容更专业、互动更灵活”三大特点,旨在颠覆传统数字人形象。基于多模态大模型,它不仅能生成匹配情境的专业文案,更能实时调整表情、语气和动作,实现自然流畅的情绪表达和动作切换。其内置的“AI大脑”还能根据直播间反馈,智能调度助播、场控等角色,优化互动策略,提升转化效果,真正做到“一个人就是一支营销团队”。百度慧播星已上线“一键克隆”功能,用户只需录制最短2分钟视频,即可拥有专属数字人分身,让“人人皆可主播”成为现实。
内容操作系统“沧舟OS”:针对海量、多模态内容的管理与应用难题,百度文库与百度网盘联合推出了全球首个内容领域操作系统——沧舟OS。其核心包括能处理不同模态、格式内容的Chatfile plus,以及由公域知识库、私域知识库、记忆库组成的“三库”和编辑器、阅读器、播放器组成的“三器”。依托沧舟OS,百度网盘上线了业内唯一的“AI笔记”,可在观看视频时一键生成结构化笔记、思维导图,甚至进行AI出题,实现学习内容的深度交互。这一创新极大地提升了知识获取与管理的效率。目前,百度文库AI功能付费用户已超4000万,AI月活用户达9700万;百度网盘AI月活用户也超过8000万,彰显了AI在内容消费领域的巨大潜力。
代码智能体与无代码编程“秒哒”:代码智能体(Coding Agent)是当前AI应用的热点赛道。百度去年发布的无代码编程工具“秒哒”,凭借无代码编程、多智能体协作、多工具调用三大特性,在今年3月向全社会开放。
李彦宏现场展示了一个大学生团队利用秒哒,仅花费几分钟和约5元模型调用费,便开发出原本需要一周时间的营销工具。秒哒自动协同了产品经理、架构师等多个智能体角色,调用了云存储、地图导航等工具,快速完成了应用构建。“全球有近3000万程序员,有80亿人,当技术的门槛逐渐消失,每个人都可以具备程序员的能力。”李彦宏的这番话,预示着编程民主化的加速到来。而作为专业程序员的得力助手,文心快码(Comate)也升级至3.5版本,新增代码智能体引擎、光标预测与多行智能改写等能力,并全面兼容主流开发工具链。目前,百度每天新增代码中,文心快码生成的占比已超40%,累计服务开发者达760万。
通用超级智能体“心响”:面对日益复杂的现实需求,单一智能体往往力不从心。李彦宏认为,多智能体协作是下一个高价值AI应用方向。为此,百度正式发布了多智能体协作APP——心响。它定位为一站式解决用户复杂问题的“通用超级智能体”。以租房维权为例,心响能自动梳理问题、链接专家律师AI分身提供多角度建议、生成法律分析报告并给出维权步骤。这种“智能体团队”协作模式,能有效应对需要深度分析、规划和执行的复杂任务。目前,心响已覆盖知识解析、旅游规划、学习办公等200个任务类型。
拥抱MCP时代:开放生态,赋能开发者共建应用繁荣模型能力的提升和应用形态的创新,最终需要一个开放、繁荣的生态来承载。李彦宏敏锐地把握住了模型组件协议(Model Component Protocol, MCP)的趋势,并将其视为连接模型能力与应用场景的关键桥梁。MCP允许开发者将特定功能、数据或工具封装成可供大模型调用的“组件”,从而极大地扩展了模型的能力边界,降低了应用开发的复杂度。
百度正全力推动MCP生态的建设:
发布MCP Server:百度率先发布了全球首个电商交易MCP和搜索MCP等重量级Server,供开发者直接调用。现场演示中,开发者在百度智能云千帆平台上的“万能智能体助手”中,简单添加百度AI搜索和百度优选的MCP Server,即可让智能体完成从信息查询、商品推荐到直接下单购买的全流程闭环。这是国内首个支持电商交易的MCP服务与顶级搜索MCP能力的结合。
千帆平台升级:百度智能云千帆平台正式发布了国内首个企业级MCP服务,首批上线超过1000个MCP Server供企业及开发者选用。同时,开发者也可以在千帆上开发自己的MCP Server,发布到MCP广场,享受免费托管,并能被百度搜索索引,获得更多曝光和调用机会。
AI开放计划:百度搜索开放平台发布“AI开放计划”(sai.baidu.com),旨在通过多样的内容和服务分发机制,为智能体、H5、小程序、独立App等各种形态的应用开发者提供流量入口和商业化变现的途径,同时也让用户能便捷地发现和使用最新、最全的AI服务。
“所有这些发布,都是为了让开发者们可以不用担心模型能力、不用担心模型成本、更不用担心开发工具和平台,可以踏踏实实地做应用,做出最好的应用!”李彦宏的承诺掷地有声。
为了进一步激发创新活力,百度还宣布正式启动第三届“文心杯”创业大赛,特别大奖的投资额度最高可达7000万元。同时,百度承诺未来5年将加大投入,再为社会培养1000万AI人才,为产业发展注入源源不断的智力资本。
坚实底座:智能云基础设施全面升级,为AI应用保驾护航这一切宏伟蓝图的实现,离不开坚实可靠的智能基础设施支撑。
百度集团执行副总裁、百度智能云事业群总裁沈抖在大会上详细介绍了百度智能云的最新进展,强调其致力于打造AI时代最开放、最高效的系统级智能基础设施。
算力“新电力”:AI时代的算力如同工业时代的电力。百度智能云通过自研昆仑芯AI芯片与百舸异构计算平台的深度融合,实现了算力性能与成本效益的双重突破。
昆仑芯P800集群点亮:大会“One More Thing”环节,李彦宏与沈抖共同点亮了国内首个全自研的昆仑芯3万卡算力集群。该集群能同时承载多个千亿参数大模型的全量训练,并支持1000个客户同时进行百亿参数大模型的精调。这一里程碑不仅展示了百度在AI芯片和大规模集群上的硬实力,也为后续的模型训练和推理提供了强大的算力保障。目前,昆仑芯P800已在招商银行、国家电网、中国钢研等金融、能源、制造龙头企业以及北大、同济等高校规模化部署。
昆仑芯超节点发布:为了极致降低算力成本,百度智能云发布了昆仑芯超节点。通过将64张昆仑芯AI加速卡集成于单个机柜,利用高速机内通信替代机间通信,实现了卡间互联带宽提升8倍,单机训练性能提升10倍,单卡推理性能更是惊人地提升了13倍。沈抖指出,“未来三年,推理降本,一定是企业最重要的工作。”昆仑芯超节点有望将推理成本降低95%,为大模型应用的规模化落地扫清关键障碍。
百舸推理加速升级:百度智能云全面升级了百舸推理加速能力,通过大规模分布式推理的PD(Parameter/Data)分离、针对MOE(Mixture of Experts)模型的极致优化以及系统级工程优化,显著提升GPU利用率。自上线以来,作为千帆平台算力底座的百舸,已助力千帆推理吞吐提升20倍,推理速度提升50%以上。除了服务大型企业,百舸也高效支撑着如北京人形机器人创新中心(其“天工”机器人在马拉松中夺冠)等前沿创企的算力需求。
千帆平台:一站式模型与应用开发利器:作为承载模型服务和应用开发的核心平台,千帆持续进化。
模型与工具链:千帆平台已汇聚超100个模型(包括百度自研及第三方优质模型),并提供全面的模型开发工具链,支持深度思考模型、多模态模型的定制与精调。例如,智联招聘利用千帆的模型蒸馏工具,成功将百亿参数模型调优至媲美千亿参数模型的效果,成本降至三成。
智能体Pro与Agentic RAG:千帆升级发布了全新推理式智能体——智能体Pro,具备更强的深度思考能力,支持企业定制专属智能体。结合Agentic RAG技术,智能体能更好地利用企业私域数据,降低幻觉。其Deep Research深度研究模式,更能让Agent自主规划、执行复杂任务,像人一样使用电脑工具收集信息、生成专业报告(如荣耀正在基于此能力开发科研应用)。
云上AI原生应用:百度智能云也将其基础设施能力赋能于自研AI应用,并持续迭代。
客悦·ONE:升级后的智能营销解决方案,为金融行业提供客户全生命周期服务,在获客、客服、流失预警等场景实现效能提升,已服务超50家金融企业。
一见5.0:视觉AI平台实现重大突破,支持用自然语言秒级生成专业级视觉AI应用,大大降低使用门槛,并通过云边协同降低成本,加速视觉智能在工业质检(如中国钢研应用)等场景的规模化落地。
从底层算力芯片(昆仑芯),到异构计算平台(百舸),再到模型开发与应用平台(千帆),以及丰富的AI原生应用(客悦、一见等),百度智能云构建了一个从硬件到软件、从技术到服务、从模型到应用的完整、开放、高效的系统级智能基础设施。
这不仅支撑着百度自身的AI创新,也为千行百业的数字化、智能化转型提供了强大的引擎和开放的平台。民生银行与百度智能云的合作,便是在金融领域首个实现涵盖算力、平台、模型、应用四层架构端到端落地的标杆案例。
Create 2025百度AI开发者大会,不仅是一场技术成果的展示,更是一次战略方向的宣示。李彦宏和他领导下的百度,正以极大的决心和魄力,将AI发展的重心从模型本身的“军备竞赛”转向更为广阔、更具价值的应用落地。
通过大幅降低模型使用成本、推出一系列创新应用范式、构建开放的MCP生态、夯实系统级智能基础设施,百度正在为全球开发者铺就一条通往“应用为王”时代的康庄大道。
当模型的门槛逐渐消弭,当开发的工具日益便捷,当创新的生态蓬勃生长,一个属于AI应用的黄金时代正加速到来。
正如李彦宏所言,未来将是“应用的天下”。而百度,已然擎起火炬,引领开发者们,共同去探索和创造这个充满无限可能的智能新世界。从文博知识的普及(文博智能体),到非遗武术的数字化传承(非遗武术大模型),再到百度奖学金对顶尖人才的持续投入,百度在AI领域的布局深远而全面,其目标不仅是技术的领先,更是普惠的赋能和价值的创造。
来源:周到客户端一点号