摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配

抖音秀 热点资讯 8

6 月 29 日消息,摩尔线程宣布,6 月 27 日,腾讯开源基于专家混合(MoE)架构的大语言模型混元-A13B。同日,摩尔线程团队率先完成该模型在全功能 GPU 的深度适配与高效支持。

据介绍,作为业界首个 13B 级别的 MoE 开源混合推理模型,混元-A13B(Hunyuan-A13B)总参数量达 800 亿,激活参数为 130 亿,不仅在效果上达到了高标准,而且在尺寸上也做到了极致的优化,成功平衡了模型性能与资源占用。

摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配  腾讯 AI 第1张

摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配  腾讯 AI 第2张

摩尔线程率先支持腾讯混元-A13B 模型,完成全功能 GPU 深度适配  腾讯 AI 第3张

从混元官方发布的 benchmark 测试结果来看:Hunyuan-A13B 在多个代码和数学任务上都取得了最高分数。在 MMLU、MMLU-PRO 等诸多众聚合任务上,Hunyuan-A13B 达到了与 Qwen3-A22B 模型同等的水平,表现出优秀的综合能力。

摩尔线程积极响应开源社区的号召,旨在让更多开发者基于国产全功能 GPU 进行 AI 应用创新。此前,摩尔线程在深度求索 DeepSeek、通义千问 QwQ-32B 和 Qwen3 等模型的发布当日,就成功实现了 Day-0 支持。

标签: 腾讯 AI