MoE大模型迎来“原生战友”:昇腾超节点重构AI基础设施 另一个是MoE架构,中文名称是混合专家模型,相对应的概念是稠密(Dense)模型。如果说稠密模型一个“通才”,由一个“专家”处理多种不同的任务,MoE则是将任务分门别类,分给多个“专家”进行解决。 模型 战友 moe 腾超节点 腾超 2025-05-18 09:18 4