玩酷网

华为宣布——首次开源盘古大模型,而且一口气推出两个版本。 一个是7B参数的盘古E

华为宣布——首次开源盘古大模型,而且一口气推出两个版本。 一个是7B参数的盘古Embedded稠密模型,主打“快思考+慢思考”的推理灵活性; 另一个是72B参数的盘古Pro MoE混合专家模型,主打高效稀疏激活与推理性能。 两个模型都针对昇腾NPU进行了深度优化,推理速度和性能表现都很亮眼。 盘古Embedded 7B模型亮点包括: - 支持任务复杂度自适应切换推理模式(快思/慢想) - 模型具备元认知能力,能自主判断切换方式 - 小体量(70亿参数)却能在AIME、GPQA等复杂任务中击败Qwen3-8B、GLM4-9B等同行模型 - 架构统一、部署灵活,推理效率与质量兼顾 盘古Pro MoE 72B模型则基于自研MoGE(分组混合专家)架构: - 激活参数量仅160亿,性能却优于传统稠密72B - 通过组内均衡激活解决专家负载不均问题 - 昇腾800I A2平台上推理速度最高可达1528 tokens/s - 支持大规模并行训练,推理性价比高 目前,盘古Pro MoE的模型权重与推理代码已在开源平台上线:-tribe