12月6日消息,腾讯自研大模型混元2.0(Tencent HY 2.0)正式发布,同时DeepSeek V3.2也在腾讯生态内逐步接入。
目前,这两大模型已率先在元宝、ima等腾讯AI原生应用中上线,腾讯云也已开放相关模型的API及平台服务。
全新发布的Tencent HY 2.0,采用了混合专家(MoE)架构,具备高达406B总参数量(激活参数32B),模型支持256K超长上下文窗口,推理能力和效率处于业界领先地位。
相比上一版本(Hunyuan-T1-20250822)模型,HY 2.0 Think显著改进了预训练数据和强化学习策略,在数学、科学、代码、指令遵循等复杂推理场景的综合表现稳居国内第一梯队,泛化性大幅提升。
数学科学知识推理:使用高质量数据进行Large Rollout强化学习,使得HY 2.0 Think推理能力大幅增强,在国际数学奥林匹克竞赛(IMO-AnswerBench)和哈佛MIT数学竞赛(HMMT2025)等权威测试中取得一流成绩。结合预训练数据的进步,模型在极度考验知识水平的Humanity’s Last Exam(HLE)和泛化性的ARC AGI等任务上也大幅进步。
指令遵循与长文多轮能力:通过重要性采样修正缓解了训练和推理不一致问题,实现了长窗口RL的高效稳定训练。同时通过多样化可验证的任务沙盒,以及基于打分准则的强化学习,显著提升了HY 2.0 Think在Multi Challenge等指令遵循和多轮任务的效果。
代码与智能体能力:构建了规模化的可验证环境及高质量合成数据,极大增强了模型在Agentic Coding及复杂工具调用场景下的落地能力,在SWE-bench Verified及Tau2-Bench等面向真实应用场景的智能体任务上实现了跃升。
基于RLVR+RLHF双阶段的强化学习策略,HY 2.0的输出“质感”显著进步,在文本创作、前端开发、指令遵循等实用场景上展现了差异化优势。
在文学创作上,HY 2.0有效减少了“AI味”,可以敏锐捕捉指令中的潜在的情感需求,输出观点深刻、逻辑严密的文章。
Tencent HY 2.0模型具备扎实的代码能力和一定的“视觉审美”,在生成Web小游戏时,不仅能跑通复杂的JS逻辑,还能输出审美在线的CSS布局与动画效果。