今日开源(2025-06-09):dots.llm1,MoE模型激活参数14B,11.2万亿token预训练,媲美Qwen2.5


今日开源(2025-06-09):dots.llm1,MoE模型激活参数14B,11.2万亿token预训练,媲美Qwen2.5

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

🏆基座模型
①项目:dots. llm1
★dots. llm1是一个大规模的MoE(MixtureofExperts)模型,激活了142B参数中的14B,性能与最先进的模型相当。通过精心设计的数据处理流程,dots. llm1在没有使用合成数据的情况下,经过11. 2万亿高质量token的预训练,达到了与Qwen2. 5-72B相当的性能。项目开源了每一万亿token的中间训练检查点,为大语言模型的学习动态提供了宝贵的见解。
☆一键收藏:
https ://sota. jiqizhixin.com/project/dots-llm1
②项目:SophiaVL-R1
★SophiaVL-R1项目旨在通过思维层次的奖励机制来增强多模态大模型(MLLMs)的推理能力。该项目受到“错误思维,正确答案”现象的启发,训练了一个思维奖励模型,利用SophiaVL-R1-Thinking-156k数据集从多个维度评估思维过程。此外,项目引入了Trust-GRPO算法,根据思维奖励的可靠性分配可信度权重,引导模型在不增加不确定性估计计算开销的情况下探索有利的推理策略。SophiaVL-R1-7B模型在多个基准测试中表现出色,并且可以在8个A100GPU上仅用1,500步高效训练完成。
☆一键收藏:
https ://sota. jiqizhixin.com/project/sophiavl-r1
⚙️Robotics开发
①项目:OpenWBT
★OpenWBT是一个基于AppleVisionPro的全身遥操作系统,专为UnitreeG1和H1人形机器人设计。该系统支持真实机器人和模拟环境,用户可以通过该系统控制机器人执行行走、下蹲、弯曲、抓取和举起等动作,从而显著扩展机器人的操作能力,使其能够完成更广泛的任务。
☆一键收藏:
https ://sota. jiqizhixin.com/project/openwbt
🛠️框架平台、必备工具
①项目:SLOT
★SLOT是一种测试时推理技术,旨在通过优化轻量级、样本特定的参数向量来增强语言模型对输入提示的响应能力。该方法无需训练,简单而有效,能够快速适应不同的研究需求。SLOT通过在提示阶段学习一个样本特定的轻量级向量,并在生成阶段应用于最终隐藏特征,以此来生成更符合给定指令的响应。
☆一键收藏:
https ://sota. jiqizhixin.com/project/slot
②项目:EasyDistill
★EasyDistill是一个专为大语言模型设计的知识蒸馏工具包。随着大语言模型的复杂性和规模不断增长,EasyDistill提供了一个多功能且用户友好的平台来简化知识蒸馏过程,支持黑盒和白盒方法。它通过数据合成、监督微调、排序优化和强化学习等功能,帮助小模型在不牺牲准确性的情况下模拟大模型的性能。EasyDistill不仅适用于学术研究,还为工业应用提供了强大的蒸馏模型和开源数据集,并与阿里云的AI平台PAI无缝集成。
☆一键收藏:
https ://sota. jiqizhixin.com/project/easydistill
③项目:MemoryOS
★MemoryOS是一个为个性化AI智能体提供记忆操作系统的项目,旨在实现更连贯、个性化和上下文感知的交互。该系统借鉴了操作系统中的内存管理原则,采用了层次化的存储架构,包含存储、更新、检索和生成四个核心模块,以实现全面高效的记忆管理。在LoCoMo基准测试中,该模型在F1和BLEU-1分数上分别取得了49. 11%和46. 18%的平均提升。
☆一键收藏:
https ://sota. jiqizhixin.com/project/memoryos


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录