实现了
  • 2025-05-30  阅读:0

    华为揭秘国产算力+国产模型的全流程自主可控训练实践

    近日,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE训练性能上的跨越。训练

网站内容来自网络,如有侵权请联系我们,立即删除!
Copyright © 爱最网 赣ICP备2024047966号-4