摘要:新款 Qwen3 模型在多个领域,例如编码和数学问题上,均优于 DeepSeek 最佳模型。它将以开源许可证发布多个 Qwen3 系列模型,这些模型的参数数量范围从 600 million 到 235 billion 参数不等,参数数量大致反映了解决问题的能力
阿里巴巴集团有限公司宣布推出新的人工智能模型系列 Qwen3,据称其性能可超越来自 OpenAI 和 Google LLC 等公司的竞争模型。
这一新产品的发布突显了自 DeepSeek Ltd. 在去年年底首次亮相以来,中国人工智能行业迅速发展的步伐。
新款 Qwen3 模型在多个领域,例如编码和数学问题上,均优于 DeepSeek 最佳模型。它将以开源许可证发布多个 Qwen3 系列模型,这些模型的参数数量范围从 600 million 到 235 billion 参数不等,参数数量大致反映了解决问题的能力。一般来说,模型参数越多,性能表现就越好。
在新推出的 Qwen3 系列中,有两款采用所谓 "mixture of experts" ( MoE ) 技术的模型,阿里巴巴表示其可以与 Google 和 Anthropic PBC 推出的最先进推理模型相媲美。推理模型旨在模仿人类思考问题的方式,花更多时间进行思考并执行事实核查以确保准确性。
通过采用 MoE 技术,人工智能模型可以通过将任务划分为更小的部分来增强其推理能力,这类似于一家公司派遣专门团队针对更具挑战性的问题的特定部分进行处理。将任务分摊至模型的不同部分,使问题解决过程更加高效。
阿里巴巴 Qwen 团队在一篇博客文章中表示:“我们已将思考模式与非思考模式无缝集成,为用户提供灵活控制思考预算的能力。这一设计使用户能够更轻松地配置针对特定任务的预算。”
阿里巴巴表示,Qwen3 模型支持 119 种语言,并在一个包含近 36 trillion Token 的数据集上进行了训练,这些 Token 是它们在接受“教学”过程中处理的基本数据单位。1 million Token 大约相当于 750,000 个单词,在本案例中,这些数据来自各种教材、代码片段、AI 生成的数据、问答对以及其它资源。
在各项基准测试中,阿里巴巴的 Qwen3 模型展现出了令人印象深刻的表现,超越了美国 AI 公司近期推出的“高端”模型,如 OpenAI 的 o3-mini 和 o4-mini 模型。
例如,在衡量模型编写代码能力的 Codeforces 基准测试中,最大的 Qwen-3-235B-A22B 模型超越了 o3-mini 以及 Google 的 Gemini 2.5 Pro 模型。它还在 AIME 数学基准测试以及评估 AI 模型推理能力的 BFCL 测试中击败了 o3-mini。
自从 DeepSeek 的 R1 推理模型在去年 12 月末首次亮相以来,虽然其开发成本仅为 OpenAI 的一小部分,却已抢占风头,此后中国科技领袖陆续推出了一系列同样强大的 AI 模型。阿里巴巴几周前刚推出了 Qwen-2.5 系列模型,并称这些模型可以处理包括文本、图像、音频和视频在内的多模态数据格式。这些模型显著轻量,设计上可直接在智能手机和笔记本电脑上运行。
强大且开源的中国 AI 模型的出现,提升了美国 AI 公司的竞争压力,尽管它们直到最近还被视为行业领导者。但如今,美国模型的地位正受到威胁,尤其是因为美国制造的模型通常在训练上投入的成本远高于中国同行。
在其最近的一次举动中,美国对 Nvidia Corp. 的 H20 GPU 实施了出口许可证,这款 GPU 专门设计以符合之前对中国的制裁规定。
OpenAI 则回应称,将在未来几个月内推出一种 “open-weights” 推理模型,这标志着其一贯将模型内部工作原理视为“黑盒”策略的巨大转变。
阿里巴巴首席执行官吴泳铭在二月份表示,该公司的主要目标是构建一个“通用人工智能”系统,最终能够超越人类的智力水平。
来源:至顶网一点号