全球机器翻译比赛拿下30个语种第1名,腾讯开源混元翻译模型,背后技术与压缩心法全公开!

360影视 国产动漫 2025-09-11 14:31 2

摘要:被誉为机器翻译领域的「世界杯」赛事,国际计算语言学协会(ACL)WMT 2025 大赛在 8 月底尘埃落地。在全部 31 个语种的激烈角逐中,腾讯混元 Hunyuan-MT-7B(参赛名称:Shy-hunyuan-MT)一举拿下全部 31 个语种比赛中的 30

被誉为机器翻译领域的「世界杯」赛事,国际计算语言学协会(ACL)WMT 2025 大赛在 8 月底尘埃落地。在全部 31 个语种的激烈角逐中,腾讯混元 Hunyuan-MT-7B(参赛名称:Shy-hunyuan-MT)一举拿下全部 31 个语种比赛中的 30 个第 1 名,几乎实现了完美统治。

腾讯混元“shy-hunyuan-MT”即Hunyuan-MT-7B 在英语-简体中文翻译的得分情况

9 月 1 日,腾讯混元宣布 Hunyuan-MT-7B 正式开源,这是一个轻量且能力全面的多语言翻译大模型:

支持 33 种主流语言互译

额外支持 5 种民族语言与汉语方言的双向翻译(如藏语、维吾尔语等)

参数仅 7B,推理高效,部署友好

在 Flores 200 测评中,效果显著领先同规模模型,逼近甚至超越百亿级大模型

同时,混元还开源了一个翻译集成模型 Hunyuan-MT-Chimera-7B (奇美拉),这一模型能综合多个翻译引擎(包括 Hunyuan-MT-7B、Deepseek 等)的输出,通过重排序与再生成机制,输出更准确、更符合语境的最终翻译结果,开源不到一周便登顶 Hugging Face 趋势榜。

体验地址:https://hunyuan.tencent.com/modelSquare/home/list

Github: https://github.com/Tencent-Hunyuan/Hunyuan-MT/

HugginFace: https://huggingface.co/collections/tencent/hunyuan-mt-68b42f76d473f82798882597

AngelSlim 压缩工具:https://github.com/Tencent/AngelSlim

在 WMT 2025 比赛中,所有参赛系统被要求:只能使用公开数据训练,且需满足开源条件。这意味着“靠数据垄断堆效果”的老路已走不通,必须拿出真正技术硬实力。

Hunyuan-MT-7B 夺冠的背后其实是腾讯混元构建了一套完整的翻译大模型训练范式,覆盖从预训练、到 CPT 再到监督调参、翻译强化和集成强化全链条,使得模型的翻译效果达到业界最优。

与一些百亿参数的大模型相比,Hunyuan-MT-7B 在实际应用中还展现出更具实用的「性价比」优势,由于参数量控制在 70 亿级别,模型推理速度较快,在相同硬件条件下能够处理更多请求,响应也更为及时。

在部署方面,它对硬件的要求相对较低,不仅可以运行在常规服务器上,也能适配边缘设备等资源受限的环境,降低了企业部署的技术门槛和硬件投入。

此外,该模型还支持与腾讯自研的压缩工具 AngelSlim 结合使用,通过 FP8 量化等方式进一步优化性能,提升推理效率。整体显存占用较小,能耗更低,有助于降低长期运维成本,更适合需要大规模落地的翻译场景。

小模型,大应用。目前该模型已深度集成至腾讯会议、企业微信、QQ 浏览器、腾讯海外客服系统等腾讯多个核心产品,供全球用户体验。

而在即将到来的 2025 全球机器学习技术大会·北京站上,来自腾讯混元团队的技术专家、混元应用算法负责人郑茂、腾讯混元大模型压缩算法负责人于广华都将亲临现场,分享他们在模型研发上的技术实践与落地经验。

郑茂,腾讯混元技术专家,混元应用算法负责人

郑茂,现任腾讯混元技术专家,混元应用算法负责人。负责混元大模型在腾讯的应用落地,支持广告、社交、娱乐、教育、客服等业务的大模型应用层效果优化。技术研究方向包括大模型复杂推理、多轮对话、翻译、RAG、AGENT 等。在 ACL、AAAI、EMNLP、COLING、CVPR 等会议上发表数十篇论文。带领团队获得 WMT 2025 翻译比赛诸多赛道第一名。

他将带来《腾讯混元翻译大模型的训练优化与实践》的议题分享,深度剖析 Hunyuan-MT 从技术突破到业务落地的全链路优化心法。

如何设计高效的翻译专属训练流程

如何攻克低资源语种翻译难题

如何平衡翻译质量与推理效率

如何将大模型无缝接入真实业务场景

这不仅是一次技术复盘,更是一场关于“AI 如何真正创造价值”的实战启示录。

于广华,腾讯混元大模型压缩算法负责人

于广华,负责腾讯混元大模型量化、稀疏化、投机采样等压缩算法落地及创新工作,从事人工智能领域近 10 年,具有深厚的模型压缩优化技术积累,发表专利及论文十余篇。带领团队从零搭建大模型开源 AngelSlim 大模型压缩工具,覆盖混元内部业务落地、开源模型压缩等领域。并且自研了成熟的大模型压缩算法,服务于公司内部 60% 以上大模型场景,对于业务及技术理解深入。

于广华将在 2025 全球机器学习技术大会上带来《打通大模型落地最后一公里:大模型压缩落地实践》的分享,他将从业务与技术双重视角出发,介绍当前产业界主流且有效的模型压缩方法,包括 FP8 量化、结构化稀疏、推理加速中的投机采样等关键技术,并结合实际案例展示这些方法在不同模态任务中的应用效果。同时,他也将详细介绍 AngelSlim 工具包的设计理念与核心能力,如模块化封装、性能优化策略、创新算法集成以及“一键式”调用的易用性设计,帮助开发者更便捷地实现大模型的低成本、高效率部署。

两位专家的分享,不仅呈现了腾讯混元在机器翻译和模型压缩领域的最新成果,也为业界提供了从模型研发到工程落地的完整参考路径。

2025 全球机器学习技术大会(ML-Summit)北京站将于 2025 年 10 月 16-17 日在北京威斯汀酒店举办。汇聚来自高校科研工作者、顶会论文作者与一线科技产业技术实践派的 50+ 位重量级嘉宾。他们将以实战经验与前沿洞察,带来关于智能体工程与实践、AI 编程、多模态大模型、具身智能、开源模型与框架等领域的深度解读与破局思路。详情参考官网:https://ml-summit.org (或点击原文链接)。

来源:CSDN一点号

相关推荐