摘要:过去一年,AI 领域在开源力量的推动下呈现爆发式增长。大模型不再是少数巨头专属的技术高地,而是在社区协作与开放共享中不断演化,覆盖基础架构、算法优化、推理部署等多个层面。开源,让 AI 更快、更平、更广,也让越来越多的开发者、研究者、创业者拥有了参与下一代智能
过去一年,AI 领域在开源力量的推动下呈现爆发式增长。大模型不再是少数巨头专属的技术高地,而是在社区协作与开放共享中不断演化,覆盖基础架构、算法优化、推理部署等多个层面。开源,让 AI 更快、更平、更广,也让越来越多的开发者、研究者、创业者拥有了参与下一代智能系统构建的机会。
在这一背景下,5 月 6 日,由 GOSIM、CSDN 和1ms.ai 联合主办的 GOSIM AI Paris 2025 大会于法国巴黎盛大启幕。聚焦开源 AI 的技术突破与未来路径,为全球技术实践者与研究者搭建起一座连接创新与协作的桥梁。
本次大会阵容空前强大,汇聚了来自阿里巴巴、Hugging Face、BAAI、MiniMax、Neo4j、Dify、MetaGPT、智谱AI、Eigent.AI、Docker、英飞流、北京大学、德国 Fraunhofer、牛津大学、法国 openLLM 社区等企业与机构的 80 余位技术专家与学者。同时,华为、全法中国青年科创协会、中法人工智能协会、Apache 软件基金会、Eclipse 基金会、The Khronos Group 科纳斯标准联盟、WasmEdgeRuntime、LF Generative AI Commons、Linux 基金会研究部、OpenWallet 基金会、开放源代码促进会(OSI)、Software Heritage、K8SUG等合作伙伴也积极参与其中。大会围绕AI模型、基础设施、应用落地与具身智能等核心议题,展开60多场重磅技术分享,共同解读开源生态的演进脉络与创新趋势。
AI 与开源的共振时刻大会伊始,GOSIM 联合创始人 Michael Yuan 发表了主题为《开源已经迎头赶上,下一步是什么?》的演讲,分享了他对开源 AI 发展现状与未来趋势的观察。他指出,开源人工智能正迈入一个重要的转折点。
“曾经我们预测开源要 5-10 年才能追上闭源模型,但现在看来,这一目标已经提前实现。”他以近期发布的 Qwen 3 为例指出,开源模型已经不再仅与同行比较,而是开始正面对标闭源旗舰模型,甚至在部分基准测试中实现了超越。Yuan 也表示,这并非单方面的技术突破,而是闭源发展未达预期,出现了性能瓶颈。与之形成对比的是,开源模型正快速演进,性能增长曲线陡峭,带来了真正的“赶超”态势。
这也引出了一个问题:我们离 AGI 还有多远?在Michael Yuan 看来,AGI 的未来可能不是一个万能模型,而是由多个专业模型、知识库与工具组成的智能体网络,部署在私有硬件或机器人设备上。
Michael Yuan 表示,AI 架构正在从中心化走向去中心化。以 OpenAI 为例,其正在用新的 Responses API 取代旧的 Completion API,构建大规模智能体平台。已有近 60 万用户和开发者加入这场变革,参与构建分布式 AI 应用。
“未来 AGI 不应由某家资金最雄厚的公司独占开发,”他强调,“而应通过全球协作,共建一个覆盖模型、知识库、机器人和执行系统的生态网络。”
紧接着,OpenWallet 基金会执行董事 Daniel Goldscheider 在《GDC Wallets & Credentials》的演讲中重点介绍了一个由联合国大会通过的《全球数字契约》(Global Digital Compact,GDC)项目。他解释说,《全球数字契约》的核心目标有两个:
一方面,数字技术已经深刻改变了我们的生活和社会发展,它们带来了很多新机会,但同时也伴随着一些不可预知的风险;另一方面,要想让数字技术真正造福全人类,就必须推动全球范围的合作,打破国家、行业甚至公私部门之间的壁垒。基于这样的共识,GDC进一步衍生出了“全球数字协作”(Global Digital Collaboration)的联合倡议,旨在促进各国政府、企业、非营利组织等多方展开真正意义上的合作。
在谈到运作方式时,Goldscheider 强调,这项协作并不是由某个机构说了算,而是采用“联合召集”的形式,欢迎所有感兴趣的国际组织、标准制定者、开源社区和政府间组织参与。他特别指出,这不是一个“谁领导谁”的项目,而是一个平等合作的平台,每一方都有话语权,没有谁比谁更重要。
此外,他还说明,全球数字协作的目标不是直接制定标准或开发技术,而是帮助来自不同背景的组织坐在一起,把各自的观点和需求摆上台面,先达成共识。之后,具体的标准和技术工作再由对应的专业机构去推动。他举了“数字身份”和“生物识别技术”为例,说目前很多组织都在做这方面的工作,因此更需要这样一个中立的平台,把大家聚集起来,避免重复、冲突和资源浪费。
值得关注的是,本次大会特别设置了 AI 模型、AI 基础设施、AI应用和具身智能四大分论坛,涵盖从底层架构到应用落地、从模型能力到智能体实践的关键议题。每个分论坛均邀请来自全球一线企业与科研机构的技术领军者进行分享与交流,既有对最新技术趋势的深入解析,也有丰富的工程实践案例,全面展现开源 AI 在多领域的融合与演进。
七位专家联袂拆解 AI 大模型底层逻辑
在 AI 模型论坛上,来自开源社区与研究机构的多位专家围绕大模型的架构创新、开源协作与生态演进进行了精彩分享。
其中,Hugging Face 机器学习研究工程师 Guilherme Penedo 带来了《Open-R1:对 DeepSeek-R1 的完全开源复现》主题演讲,展示了Open-R1 项目在复现 DeepSeek-R1 模型方面的工作成果,重点推动推理任务相关数据的开放与标准化。智源研究院数据研究团队技术负责人 Guang Liu分享了《OpenSeek:协同创新,迈向下一代大模型》,强调通过全球协作在算法、数据和系统等层面推动大模型性能突破,旨在开发出超越 DeepSeek 的下一代大模型。
随后,CSDN 高级副总裁 Jason Li 在《解码 DeepSeek:技术创新及其对 AI 生态系统的影响》中,深入剖析了 DeepSeek 在技术范式、模型架构和产业生态方面的创新及其对全球 AI 生态系统的潜在影响。MiniMax 高级研究总监 Yiran Zhong带来了《Linear 未来:大语言模型架构的演变》主题演讲,介绍了团队提出的 Lightning Attention 机制,在效率和性能上为替代 Transformer 架构提供了可能。牛津大学皇家学会牛顿国际研究员 Shiwei Liu在《大语言模型中的深度诅咒》中探讨了深层神经网络在模型加深时贡献递减的问题,并提出通过 LayerNorm Scaling 改进 Pre-LN 机制以提升深层利用率和整体效率。智谱 AI 研究工程师 Diego Rojas 在《代码大语言模型:超越 Token 的探索》指出,当前的大模型虽然很强,但还要依赖分词这一步,而这一步不够高效,因此其与与会观众分享了如何跳过分词,让模型变得更快更强的新方法。本论坛的最后,Fraunhofer IAIS 基础模型团队负责人 Nicolas Flores-Herr在《如何打造具备全球竞争力的“欧洲制造”大语言模型?》的分享中强调,欧洲正通过多语种、开源和可信赖的本地化大模型项目,克服数据、多样性与监管挑战,以打造体现欧洲价值观的下一代人工智能。
AI 基础设施三要素:数据、算力与算法的协同演进
聚焦于构建更加开放、高效与普惠的大模型底座,本场 AI 基础设施论坛汇聚了科研机构与企业的一线专家,围绕数据、算力、系统架构等关键问题展开深入探讨。
首先,智源研究院(BAAI)副院长 Yonghua Lin 在《AI 开源向善:包容性应用、公平性数据与普惠算力》中重磅发布中文互联网语料库 CCI 4.0,覆盖 CCI4.0-M2-Base V1(https://huggingface.co/datasets/BAAI/CCI4.0-M2-Base-v1)、CCI4.0-M2-CoT V1(https://huggingface.co/datasets/BAAI/CCI4.0-M2-CoT-v1)和 CCI4.0-M2-Extra V1(https://huggingface.co/datasets/BAAI/CCI4.0-M2-Extra-v1)共 3 大数据集。其中,CCI4.0-M2-Base V1 数据量为 35000GB,为中英双语,中文数据 5000GB,与 CCI3.0 相比数据规模增加了 5 倍;CCI4.0-M2-CoT V1 包含了用于提升推理能力的 4.5 亿条逆向合成人类思考轨迹数据,总 token 数量达 425B(4250亿),与现有全球最大的已开源的合成数据集Cosmopedia(由 Hugging Face 开源)相比,规模提升了近 20 倍。
紧接着,华为高级软件工程师 Xiyuan Wang 在《基于昇腾 CANN 的训练与推理最佳实践》中介绍了 CANN 架构如何连接 AI 框架与昇腾硬件,并通过支持 PyTorch 与 vLLM 等生态,实现高效训练推理的最佳实践。Carrefour 数据架构师 Guillaume Blaquiere 在《让你的 LLM 实现无服务器化》中展示了如何通过 Google Cloud Run 部署支持 GPU 的无服务器大模型实例,从而降低成本并提高资源利用效率。北京大学工程师 Yinping Ma 发表了《开源智能计算一体化管理与调度基础软件 —— SCOW 与 CraneSched》主题演讲,介绍了北大研发的 SCOW 和 CraneSched 两大开源基础软件,已在全国数十家高校与企业部署,支撑智能计算资源的统一管理与高性能调度。北京航空航天大学博士研究生 Yaowei Zheng 在《verl:基于混合控制器的 RLHF 系统》演讲中分享了 Verl 系统中混合控制器架构的设计理念,并探讨其在大规模强化学习训练中的效率优势。Oxen.ai 首席执行官 Greg Schoeninger 带来了《用于 DeepSeek-R1 式的强化学习(GRPO)的训练数据集和基础设施》主题分享,并详解了面向推理 LLM 的强化学习训练流程,包括数据集构建、基础设施搭建及本地训练代码生成模型的实践路径。
从“能不能用”到“用得好不好”,AI 应用进入实战时刻
在AI 应用分论坛中,来自企业一线的研发实践者与技术决策者带来了丰富多元的分享,展现了大模型驱动下 AI 应用的真实落地路径与未来想象。
阿里巴巴通义实验室首席研究员 Yongbin Li 以《通义灵码:从Coding Copilot到Coding Agent》为题,分享了通义灵码在技术演进和产品应用方面的最新进展。华为软件工程师 Dongjie Chen 带来《仓颉 Magic:大模型时代下,开发者的新选择》主题演讲,介绍了基于仓颉编程语言构建的 AI 大模型 Agent 开发框架,该框架能显著提升开发者构建智能鸿蒙(HarmonyOS)应用的效率,带来卓越的开发体验。LangGenius 开发者生态系统总监 Xinrui Liu 则围绕《携手共进,由 Dify 赋能的技术力量》展开介绍,强调了Dify 的开源生态系统及其在加速 AI 应用普及方面所发挥的作用。
而在 AI 与系统工程的结合方面,Makepad 联合创始人 Rik Arends 带来了一场别具特色的分享:《通过氛围编码,用 AI 打造面向移动设备、网页以及混合现实的 Rust UI》,探索如何利用氛围编码构建UI 的新范式。博通 Spring 团队研发软件工程师 Christian Tzolov则在《通过 MCP 实现 AI 集成的统一范式》中,重点展示如何通过 MCP Java SDK 以及 Spring AI MCP,将 AI 模型与现有系统和资源进行高效集成。Futurewei 技术战略高级总监 Wenjing Chu 带来的《MCP 和 A2A 中的 “T” 代表信任》则将视角进一步提升,深度解析了如何在基于智能体的应用中构建真正可信的 AI 系统。此外,Cegid 软件工程经理 Hong-Thai Nguyen 在《Cegid Pulse:多智能体商业管理平台》演讲中,结合实际场景介绍了多智能体如何重塑商业流程,实现更智能的企业决策与运营。
当大模型装上“身体”:具身智能来了
具身智能正在成为AI领域最具挑战性与前景的发展方向之一。在本场分论坛中,诸多业界顶尖技术专家围绕“具身智能”这一主题展开深入交流,分享了各自在架构设计、模型应用与场景落地上的实践探索。
其中,ZettaScale 首席执行官兼首席技术官 Angelo Corsaro 在《心智、身体与 Zenoh》演讲中,介绍了 Zenoh 协议如何在智能机器人时代打通感知、执行与认知之间的壁垒。Dora 项目负责人 Philipp Oppermann 则带来《在 Dora 中使用 Zenoh 实现分布式数据流》的主题分享,讲解了Zenoh 协议在 Dora实现分布式数据流中的重要应用。中国科学技术大学教授 James Yang 发表了《自动驾驶中对抗性安全关键场景的生成》演讲,介绍如何通过生成对抗性场景来提升自动驾驶技术的安全性,确保在复杂环境下的稳定性与可靠性。
除此之外,智源研究院具身智能研究员 Minglan Lin也围绕《RoboBrain:用于机器人操作的统一大脑模型 & RoboOS:RoboBrain 与机器人智能体的分层协作框架》主题,展示了 RoboBrain 如何提升机器人的智能化水平以及 RoboOS 在机器人协作中的重要作用。Voyage Robotics 创始人 Ville Kuosmanen 带来了《用开源 VLA 模型构建机器人应用》的精彩演讲,讲解了如何利用开源 VLA 模型为机器人应用提供强大的支持。最后,Menlo Research 大语言模型研究员 Huy Hoang Ha 在《空间推理 LLM:增强对 2D 和 3D 的理解以支持机器人操作与导航》的主题演讲中,探讨了空间推理如何帮助机器人更好地理解复杂的 2D 和 3D 环境,从而提升其操作与导航能力。
在 Spotlight Talks Day 1 中,众多业内专家围绕前沿技术与创新应用展开了精彩分享。作为大会的重磅单元,Spotlight Talks 汇聚了来自各个领域的技术实践者,共同探讨 AI 技术的最新进展与落地实践。法国原子能委员会(CEA)研究工程师 Cyril Moineau 在《Aidge》演讲中,介绍了 Eclipse Aidge 项目如何通过提供完整的工具链,支持深度神经网络在嵌入式平台上的部署与优化,从而加速边缘智能系统的发展。
紧接着,Bielik.ai 数据科学家 Paweł Kiszczak 于本次大会上首次公开分享了波兰本土 AI 项目 Bielik 的最新进展,并以《Bielik.AI 的崛起》为题,讲述了该项目如何通过开源语言模型与完整工具生态,推动本地自主 AI 体系的构建。Bielik 项目不仅发布了多个开源语言模型(参数规模涵盖 1.5B、4.5B 和 11B),还打造了覆盖数据集、评测、训练与微调的端到端工具链,支持研究团队与开发者基于基础模型进行微调或持续预训练,大幅降低大模型研发门槛,激发本地技术创新能力。
来自 Second State 的技术负责人 Hung-Ying Tai 分享了《使用 LlamaEdge 在边缘设备上运行 GenAI 模型》,展示了 LlamaEdge 在边缘设备上部署生成式 AI 模型的轻量化与高性能能力,带来更灵活高效的本地推理体验。北京大学博士研究生 Tianyu Chen 在《基于自我进化框架,实现自动为 Rust 代码生成形式化验证》中,介绍了 SAFE 框架如何通过“数据合成—模型微调”的自进化机制,缓解训练数据稀缺的问题,从而显著提升 Rust 代码形式化验证的效率与准确率。Illuin Technology 研发主管Gautier Viaud在《ColPali:基于视觉语言模型的高效文档检索》演讲中,分享了团队基于 ColBERT 架构与 PaliGemma 模型构建的 ColPali 系统,如何通过结合图文信息,有效提升文档检索的准确性与效率。最后,Dynamia.ai 首席执行官 Xiao Zhang 带来《解锁异构 AI 基础设施的 K8s 集群能力:释放 HAMi 的强大力量》,介绍了如何借助 HAMi 更好地管理与调度异构 GPU 资源,提升 AI 基础设施的利用率与可观测性。
除了高密度的主题演讲,大会还特别设置了多个特色单元,其中闭门会单元(Closed-door Meeting)聚焦战略对话与深度行业交流,推动跨界合作落地;展示单元(Showcase Sessions)集中呈现企业与科研机构的 AI 最新技术产品,吸引了大量观众驻足交流;而在竞赛单元(Competition Sessions)中,来自全球的人工智能与机器人技术开发者、工程师及机器人爱好者,围绕开源 SO-ARM100 机械臂套件展开了模仿学习的实践探索。该套件集成了 Hugging Face 的 LeRobot 框架,并结合 NVIDIA 的 AI 与机器人技术,支持包括 ACT 和 Diffusion Policy 在内的前沿 AI 架构,为参赛者提供了坚实的技术基础。参赛者在真实场景中进行了实践探索,全面评估其效果与可行性。
值得关注的是,动手单元(Workshop Sessions)以 OpenHarmony 生态为核心议题,围绕这一由开放原子开源基金会孵化和运营的开源项目展开深入探索。OpenHarmony 致力于构建面向全场景、全连接、全智能时代的智能终端操作系统框架,打造一个开放、全球化、创新领先的分布式操作系统平台,服务多样化的智能设备,助力万物互联产业发展。大会现场,参会者将通过一系列实操工作坊,亲身参与从驱动开发到应用部署的关键流程,深入理解 OpenHarmony 在多设备协同、轻量系统设计等方面的核心优势。动手实践不仅帮助开发者打通“从底到端”的技术路径,更全面提升系统级开发与调试能力。
至此,GOSIM AI Paris 2025 首日议程落下帷幕,但精彩仍在继续。明日大会将继续围绕 AI 模型、AI 基础设施、AI 应用和具身智能四大论坛持续推进,并迎来备受关注的 PyTorch Day,更多重磅嘉宾与一线实战内容即将登场,敬请期待!
来源:新浪财经