腾讯混元开源首个13B激活MoE大模型:推理提升超2倍,单卡可跑!


腾讯混元开源首个13B激活MoE大模型:推理提升超2倍,单卡可跑!

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

【编者按】首个13B激活参数的MoE大模型Hunyuan-A13B重磅来袭:总参数80B、256K原生长上下文、推理速度是同类模型2倍以上,单卡可跑、效果拉满,日均调用超1. 3亿次!
责编|梦依丹
出品丨AI科技大本营(ID:rgznai100)
6月27日,腾讯混元宣布开源首个混合推理MoE模型Hunyuan-A13B,总参数80B,激活参数仅13B,效果比肩同等架构领先开源模型,但是推理速度更快,性价比更高。这意味着,开发者可以用更低门槛的方式获得更好的模型能力。
即日起,模型已经在Github和Huggingface等开源社区上线,同时模型API也在腾讯云官网正式上线,支持快速接入部署。
项目相关链接
体验入口:https ://hunyuan. tencent.com/
API地址:https ://cloud. tencent.com/product/tclm
Github:https ://github. com/Tencent-Hunyuan
HuggingFace:https ://huggingface. co/tencent
C3-Bench:https ://github. com/Tencent-Hunyuan/C3-Benchmark
ArtifactsBench:https ://github. com/Tencent-Hunyuan/ArtifactsBenchmark
AI产品爆发,但你的痛点解决了吗?8. 15-16北京威斯汀·全球产品经理大会,3000+AI产品人社群已就位。
添加小助手进群,抢占AI产品下一波红利
进群后,您将有机会得到:
·最新、最值得关注的AI产品资讯及大咖洞见
·独家视频及文章解读AGI时代的产品方法论及实战经验
·不定期赠送AI产品干货资料和秘籍
这是业界首个13B级别的MoE开源混合推理模型,基于先进的模型架构,Hunyuan-A13B表现出强大的通用能力,在多个业内权威数据测试集上获得好成绩,并且在Agent工具调用和长文能力上有突出表现。
*加粗为最高分,下划线表示第二名,数据来源于模型各个公开的测试数据集得分
对于时下热门的大模型Agent能力,腾讯混元建设了一套多Agent数据合成框架,接入了MCP、沙箱、大语言模型模拟等多样的环境,并且通过强化学习让Agent在多种环境里进行自主探索与学习,进一步提升了Hunyuan-A13B的效果。
在长文方面,Hunyuan-A13B支持256K原生上下文窗口,在多个长文数据集中取得了优异的成绩。
在实际使用场景中,Hunyuan-A13B模型可以根据需要选择思考模式,快思考模式提供简洁、高效的输出,适合追求速度和最小计算开销的简单任务;慢思考涉及更深、更全面的推理步骤,如反思和回溯。这种融合推理模式优化了计算资源分配,使用户能够通过加think/no_think切换思考模式,在效率和特定任务准确性之间取得平衡。
Hunyuan-A13B模型对个人开发者较为友好,在严格条件下,只需要1张中低端GPU卡即可部署。目前,Hunyuan-A13B已经融入开源主流推理框架生态,无损支持多种量化格式,在相同输入输出规模上,整体吞吐是前沿开源模型的2倍以上。
Hunyuan-A13B集合了腾讯混元在模型预训练、后训练等多个环节的创新技术,这些技术共同增强了其推理性能、灵活性和推理效率。
预训练环节,Hunyuan-A13B训练了20Ttokens的语料,覆盖了多个领域。高质量的语料显著提升了模型通用能力。此外,在模型架构上,腾讯混元团队通过系统性分析,建模与验证,构建了适用于MoE架构的ScalingLaw联合公式。这一发现完善了MoE架构的ScalingLaw理论体系,并为MoE架构设计提供了可量化的工程化指导,也极大的提升了模型预训练的效果。
后训练环节,Hunyuan-A13B采用了多阶段的训练方式,提升了模型的推理能力,同时兼顾了模型创作、理解、Agent等通用能力。
图:Hunyuan-A13B后训练四个步骤
为更好的提升大语言模型能力,腾讯混元也开源了两个新的数据集,以填补行业内相关评估标准的空白。其中,ArtifactsBench用于弥合大语言模型代码生成评估中的视觉与交互鸿沟,构建了一个包含1825个任务的新基准,涵盖了从网页开发、数据可视化到交互式游戏等九大领域,并按难度分级以全面评估模型的能力;C3-Bench针对Agent场景模型面临的三个关键挑战:规划复杂的工具关系、处理关键的隐藏信息以及动态路径决策,设计了1024条测试数据,以发现模型能力的不足。
Hunyuan-A13B模型是腾讯内部应用和调用量最大的大语言模型之一,有超过400+业务用于精调或者直接调用,日均请求超1. 3亿。本次进行升级更新并对外开源,是继混元large后混元大语言模型推出的又一重要开源模型,参数更小,但是性能和效果实现了大幅的提升。接下来,腾讯混元也将推出更多尺寸、更多特色的模型,将更多实践技术与社区共享,促进大模型开源生态的繁荣。
腾讯混元坚定拥抱开源,持续推进多尺寸、多场景的全系模型开源,旗下图像、视频、3D、文本等多种模态基础模型已全面开源。未来,混元计划推出多尺寸混合推理模型,从0. 5B到32B的dense模型,以及激活13B的MoE模型,适配企业与端侧不同需求,混元图像、视频、3D等多模态基础模型及配套插件模型也将持续开源。(投稿或寻求报道:zhanghy@csdn. net)
推荐阅读:
与技术谈实现,与客户谈价值,与高管谈钱!硅谷顶级产品专家亲述生存法则
AI时代最大的“幻觉”:我们有了最强工具,却正在失去定义真问题的能力
与“硅谷精神之父”凯文·凯利(KK)对话,聊聊一万天后的AI产品
📢2025全球产品经理大会
8月15–16日 
北京·威斯汀酒店
互联网大厂、AI创业公司、ToB/ToC实战一线的产品人
12大专题分享,洞察趋势、拆解路径、对话未来。
扫码下方二维码
领取会议相关资料


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录