摘要:此次开源包括两款MoE模型:Qwen3-235B-A22B(2350 多亿总参数、 220 多亿激活参),以及 Qwen3-30B-A3B(300 亿总参数、30 亿激活参数);以及六个 Dense 模型:Qwen3-32B、Qwen3-14B、Qwen3-8
Qwen3 正式发布并全部开源 8 款「混合推理模型」。凭借其卓越的性能和广泛的应用场景,迅速在全球范围内获得了极高的关注度和广泛的用户基础。
此次开源包括两款MoE模型:Qwen3-235B-A22B(2350 多亿总参数、 220 多亿激活参),以及 Qwen3-30B-A3B(300 亿总参数、30 亿激活参数);以及六个 Dense 模型:Qwen3-32B、Qwen3-14B、Qwen3-8B、Qwen3-4B、Qwen3-1.7B 和 Qwen3-0.6B。
这些模型在代码、数学、通用能力等基准测试中表现出极具竞争力的结果。Qwen3 支持思考模式和非思考模式两种思考模式,适用于不同类型的问题,支持 119 种语言和方言。
依托于阿里云函数计算 FC 算力,Serverless + AI 开发平台 FunctionAI 现已提供模型服务、应用模版两种部署方式辅助您部署 Qwen3 系列模型。完成模型部署后,您即可与模型进行对话体验;或以 API 形式进行调用,接入 AI 应用中,欢迎您立即体验。
部署方式说明:
vLLM:大模型加速推理框架,优化内存利用率和吞吐量,适合高并发场景。
SGLang:支持复杂的 LLM Programs,如多轮对话、规划、工具调用和结构化输出等,并通过协同设计前端语言和后端运行时,提升多 GPU 节点的灵活性和性能。
模型部署方式最低配置通义千问3-0.6BvLLM/SGLang/OllamaGPU 进阶型通义千问3-0.6B-FP8vLLM/SGLang/OllamaGPU 进阶型通义千问3-1.7BvLLM/SGLang/OllamaGPU 进阶型通义千问3-1.7B-FP8vLLM/SGLang/OllamaGPU 进阶型通义千问3-4BvLLM/SGLang/OllamaGPU 进阶型通义千问3-4B-FP8vLLM/SGLang/OllamaGPU 进阶型通义千问3-8BvLLM/SGLang/OllamaGPU 性能型通义千问3-8B-FP8vLLM/SGLang/OllamaGPU 性能型通义千问3-14BvLLM/SGLang/OllamaGPU 性能型通义千问3-14B-FP8vLLM/SGLang/OllamaGPU 性能型本篇文档将以通义千问 3-8B 模型演示部署流程。
前置准备
1. 首次使用 FunctionAI【1】 会自动跳转到访问控制快速授权页面,滚动到浏览器底部单击确认授权,等待授权结束后单击返回控制台。
2. 函数计算 FC 提供的试用额度【2】可用于资源消耗。额度消耗完后按量计费,对于本教程所涉及的 Web 服务,只在有访问的情况下才会产生费用。
应用模版部署
实现通义千问 3-8B 模型 + OpenWebUI 部署
创建项目
点击如下链接新建项目:
部署模版
选择 Region 并部署应用
部署过程大约持续 10 分钟左右
验证应用
部署完毕后,点击 OpenWebUI 服务,在访问地址内找到“公网访问”
在 OpenWebUI 界面验证 qwen 模型对话
什么是 FunctionAI?
云应用开发平台 FunctionAI 是阿里云推出的一站式应用开发和生命周期管理平台。应用开发者可以通过 Serverless 架构来构建容器化、高弹性、免运维的云上应用,也可以通过 AI 大语言模型推动云上应用逐步升级为智能化应用,而 FunctionAI 的应用开发范式正是结合了 Serverless 和 AI 的两者优势,帮助开发者更高效地响应市场变化,快速构建高可用、低延迟的云上应用。
FunctionAI 提供了丰富的 Serverless + AI 应用模板、先进的开发工具和企业级应用管理功能,帮助个人和企业开发者专注于业务场景,快速构建并持续迭代云上应用,可显著提高研发、部署和运维效率。
云应用开发平台 FunctionAI 具备极速体验、生态集成、更低成本以及灵活组装等特点,Serverless 与 AI 紧密结合,让存量应用智能化更便捷、让 AI 应用开发更简单。
覆盖多场景,加速应用智能化
推荐您在 PC 端体验:https://www.aliyun.com/product/cap
【2】试用额度
https://common-buy.aliyun.com/package?spm=a2c4g.11186623.0.0.117a7c77brgZf7&planCode=package_fcfreecu_cn
来源:阿里云云原生一点号