刚刚,DeepSeek 宣布,准备开源推理引擎


刚刚,DeepSeek 宣布,准备开源推理引擎

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

大家好,我是Ai学习的老章
刚刚,DeepSeek在GitHub上新建了open-infra-index仓库,准备开源其内部使用的推理引擎。
根据README.md的描述,DeepSeek推理引擎是基于vLLM经过大量魔改的版本,专为DeepSeek自家模型优化。值得注意的是,DeepSeek选择了一种更为开放和协作的方式来开源这一技术。
正如DeepSeek在其声明中所述:”几周前,在开源周期间,我们开源了几个库。社区的反响非常积极——激发了令人鼓舞的合作、富有成效的讨论和宝贵的错误修复。受此鼓舞,我们决定再迈出一步:将我们的内部推理引擎回馈给开源社区。”
DeepSeek开源周,完结,撒花
DeepSeek坦诚地指出了直接开源其完整内部推理引擎面临的三大挑战:
代码库分歧:他们的引擎”基于一年多前vLLM的早期分支。尽管结构相似,但我们已经为DeepSeek模型进行了大量定制,使其难以扩展到更广泛的用例。”
基础设施依赖:引擎”与我们的内部基础设施紧密耦合,包括集群管理工具,如果没有重大修改,这使得公共部署变得不切实际。”
有限的维护带宽:作为”专注于开发更好模型的小型研究团队,我们缺乏维护大型开源项目的带宽。”
面对这些挑战,DeepSeek选择了一条更为务实的路径——不是简单地将魔改版本作为独立仓库发布,而是”与现有的开源项目密切合作”,通过”提取独立功能”和”分享优化”的方式,将其改进直接贡献回开源社区。
这种开源方式获得了vLLM官方的高度认可,vLLM在转发DeepSeek的相关动态时附言:
🙏@deepseek_ai的高性能推理引擎是建立在vLLM之上的。现在他们正在以正确的方式开源引擎:不是创建一个单独的仓库,而是将变更带给开源社区,这样每个人都可以立即受益!
这种做法体现了真正的开源精神——不是为了彰显自己的技术实力而创建分支,而是通过协作方式让整个社区共同进步。
DeepSeek在声明的最后部分做出了一个令人振奋的承诺:”我们承诺在新模型发布之前积极同步与推理相关的工程努力,目标是使社区能够从第0天起实现最先进(SOTA)的支持。”
正如DeepSeek所言,他们的”最终目标是培养一个同步的生态系统,在官方模型发布时,可以在各种硬件平台上无缝实现前沿AI能力。
制作不易,如果这篇文章觉得对你有用,可否点个关注。给我个三连击:点赞、转发和在看。若可以再给我加个🌟,谢谢你看我的文章,我们下篇再见!
搭建完美的写作环境:工具篇(12章)图解机器学习-中文版(72张PNG)ChatGPT、大模型系列研究报告(50个PDF)108页PDF小册子:搭建机器学习开发环境及Python基础116页PDF小册子:机器学习中的概率论、统计学、线性代数史上最全!371张速查表,涵盖AI、ChatGPT、Python、R、深度学习、机器学习等


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录