6 月 29 日消息,摩尔线程宣布,6 月 27 日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队率先完成该模型在全功能 GPU 的深度适配与高效支持。
据介绍,作为业界首个 13B 级别的 MoE 开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达 800 亿,激活参数为 130 亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。
从混元官方发布的 benchmark 测试结果来看:Hunyuan-A13B 在多个代码和数学任务上都取得了最高分数。在 MMLU、MMLU-PRO 等诸多众聚合任务上,Hunyuan-A13B 达到了与 Qwen3-A22B 模型同等的水平,表现出优秀的综合能力。
摩尔线程积极响应开源社区的号召,旨在让更多开发者基于国产全功能 GPU 进行 AI 应用创新。此前,摩尔线程在深度求索 DeepSeek、通义千问 QwQ-32B 和 Qwen3 等模型的发布当日,就成功实现了 Day-0 支持。
文章来源:
IT之家
版权声明:本文内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至23467321@qq.com举报,一经查实,本站将立刻删除;如已特别标注为本站原创文章的,转载时请以链接形式注明文章出处,谢谢!