华为大动作!开源盘古7B稠密和72B混合专家模型

作者:盖贝贝 责任编辑:包建羽 2025.06.30 15:30 来源:通信世界网

通信世界网消息(CWW)6月30日,华为正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE 720亿参数的混合专家模型和基于昇腾的模型推理技术。

华为表示,此举是华为践行昇腾生态战略的又一关键举措,推动大模型技术的研究与创新发展,加速推进人工智能在千行百业的应用与价值创造。

其中,盘古70亿参数稠密模型作为轻量化高精度模型,适用于边缘计算、终端设备等资源受限场景,可高效完成自然语言处理、图像识别等任务,为行业提供低成本、高灵活性的AI解决方案。

而盘古Pro MoE 720亿参数混合专家模型则采用混合专家架构(MoE),通过动态路由机制分配计算资源,在保持模型规模的同时显著提升推理效率。

目前,盘古Pro MoE 72B模型权重和基础推理代码均已上线开源平台。

同时,此次开源不仅包含模型本身,还提供了基于昇腾AI的专用推理优化技术。华为表示,针对超大规模MoE模型的昇腾优化推理代码也将于近期发布。

消息发布后,开源社区与产业界反响积极。有业内专家分析指出,华为此次开源行动将产生深远影响。一方面,70亿参数的稠密模型和720亿参数的混合专家模型组合,为不同规模的企业提供了灵活的技术选择;另一方面,基于昇腾平台的深度优化将帮助开发者更高效地部署大模型应用。这有望推动我国AI产业生态的快速发展,提升在全球人工智能竞争中的话语权。


通信世界网版权及免责声明:
1、凡本网注明“来源:通信世界全媒体”及标有原创的所有作品,版权均属于通信世界网。未经允许禁止转载、摘编及镜像,违者必究。对于经过授权可以转载我方内容的单位,也必须保持转载文章、图像、音视频的完整性,并完整标注作者信息和本站来源。
2、凡本网注明“来源:XXX(非通信世界网)”的作品,均转载自其它媒体,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。
3、如因作品内容、版权和其它问题需要同本网联系的,请在相关作品刊发之日起30日内进行。
发表评论请先登录
...
热点文章
    暂无内容