今日开源(2025-06-30):盘古Pro MoE,72B分组混合专家大模型,MoGE实现设备负载均衡,16B激活参数高效计算
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
🏆基座模型
①项目:盘古ProMoE
★盘古ProMoE创新性地提出了分组混合专家架构(MoGE),通过将64个路由专家划分为8组并约束每组仅激活1位专家的机制,实现了设备间天然的负载均衡,同时采用4位共享专家和153376超大词表的设计,构建了总参数量72B、激活参数量16B的高效模型;该模型基于15T高质量语料进行预训练和后训练两阶段优化,其创新的MoGE架构不仅显著提升了计算效率,更在保持模型性能的同时大幅降低了资源消耗,为超大规模AI模型的工业级部署提供了可扩展、低延迟的解决方案。
☆一键收藏:
https ://sota. jiqizhixin.com/project/pangu-pro-moe
②项目:Hunyuan-A13B
★Hunyuan-A13B-Instruct是一个创新的开源大语言模型,基于细粒度的混合专家(MoE)架构设计,旨在实现高效性和可扩展性。该模型拥有80亿参数,其中13亿为活跃参数,能够在资源受限的环境中提供先进的推理和通用应用性能。其设计目标是优化资源消耗,同时保持高性能,适用于自然语言处理、计算机视觉和科学任务等领域。
☆一键收藏:
https ://sota. jiqizhixin.com/project/hunyuan-a13b
③项目:INTELLECT-MATH
★INTELLECT-MATH是一个拥有70亿参数的前沿数学推理模型。该项目通过两个阶段的训练实现:初始的监督微调(SFT)阶段和基于隐式奖励的过程强化学习阶段。通过使用强大的教师模型QwQ-32B生成SFT数据集,项目在在线强化学习中提供了更好的策略初始化,从而在花费更少时间的情况下达到现有SOTA模型Eurus-2-7B-Prime的性能,并在进一步训练中超越该模型。
☆一键收藏:
https ://sota. jiqizhixin.com/project/intellect-math
④项目:Ovis-U1
★Ovis-U1是一个3亿参数的统一模型,能够在一个强大的框架内无缝集成多模态理解、文本生成图像和图像编辑。该模型采用先进的扩散式视觉解码器和双向标记精炼器,支持高保真图像合成和文本与视觉之间的增强交互。Ovis-U1通过多任务训练,能够在真实世界的多模态挑战中实现高精度的处理。
☆一键收藏:
https ://sota. jiqizhixin.com/project/ovis-u1
🤖Agent开发
①项目:PromptX
★PromptX是一个领先的AI上下文工程平台,旨在通过革命性的交互设计将AIAgent转变为行业专家。其核心功能包括提示词结构化协议、AI状态化协议、记忆系统、女娲角色工坊和鲁班工具工坊。基于MCP协议,用户可以通过简单的命令为AI应用注入专业能力。
☆一键收藏:
https ://sota. jiqizhixin.com/project/promptx
🛠️框架平台、必备工具
①项目:AtomaInfer
★AtomaInfer是一个用于大语言模型(LLMs)推理的优化基础设施集合。该项目主要使用Rust编程语言编写,提供安全且高度优化的推理请求调度,增强LLM推理服务。它支持PagedAttention和FlashAttention2等技术,以提高KV缓存管理和注意力计算的效率。AtomaInfer兼容OpenAIAPI,支持多GPU并行推理,适合在无服务器环境中部署。
☆一键收藏:
https ://sota. jiqizhixin.com/project/atoma-infer