今日开源(2025-05-07):Llama-Nemotron,8B-253B参数全覆盖,优化内存效率,支持多语言与超长上下文


今日开源(2025-05-07):Llama-Nemotron,8B-253B参数全覆盖,优化内存效率,支持多语言与超长上下文

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

🏆基座模型
①项目:Llama-Nemotron
★Llama-Nemotron是一个大型语言系列模型(LLM),基于MetaLlama-3.1开发。该模型经过多阶段的后训练,增强了推理和非推理能力,适用于推理、聊天、工具调用等任务。通过创新的神经架构搜索(NAS)方法,模型的内存占用显著减少,提升了效率和延迟表现。该模型支持多种语言,包括英语、德语、法语等,适合用于AI智能体系统、聊天机器人和其他AI应用。包括三个模型规模:Nano(8B)、Super(49B)与Ultra(253B),另有独立变体UltraLong(8B,支持超长上下文)。
☆一键收藏:
https ://sota.jiqizhixin.com/project/nemotron-ultra
⚙️Robotics开发
①项目:VideoPredictionPolicy
★VideoPredictionPolicy项目是一个通用的机器人策略,利用预测视觉表示来实现。该项目的核心是通过视频预测模型和动作模型的训练,来解决模拟和现实世界中的多种任务。视频预测模型通过微调通用视频基础模型,专注于操作任务的文本引导视频预测。动作模型则通过扩散转换器策略,学习基于视频预测模型内部表示的隐式逆动力学模型。该项目在Calvinabc基准测试中表现出色,并在现实世界的灵巧手操作任务中解决了100多个任务。
☆一键收藏:
https ://sota.jiqizhixin.com/project/vpp
🛠️框架平台、必备工具
①项目:nanoVLM
★nanoVLM是一个用于训练和微调小型视觉语言模型的最简单、最快速的代码库。该项目采用纯PyTorch实现,代码可读性强,适合社区用户进行学习和实验。nanoVLM并非最新的SOTA模型,而是一个教育项目,旨在为用户提供一个简单的实现和训练脚本。通过使用SigLIP-B/16-224-85M和HuggingFaceTB/SmolLM2-135M作为骨干网络,nanoVLM可以在单个H100GPU上训练约6小时,达到35.3%的准确率。
☆一键收藏:
https ://sota.jiqizhixin.com/project/nanovlm
②项目:ICEdit
★ICEdit是一个创新的图像编辑项目,采用In-ContextEdit方法,通过仅使用0.5%的训练数据和1%的参数,实现了基于指令的图像编辑的最新技术。该项目在多轮编辑中表现出色,并在单轮编辑中展示了多样且视觉上令人印象深刻的结果。ICEdit的运行仅需4GB的显存,且在ID持续性方面超越了GPT-4o。项目不允许商业用途,详细信息请参阅许可证。
☆一键收藏:
https ://sota.jiqizhixin.com/project/icedit
③项目:MoLE
★MixtureofLookupExperts(MoLE)是一种新颖的边缘友好型大语言模型(LLM)架构。MoLE在激活参数数量相同的情况下,实现了与密集模型相当的延迟和内存开销,并且性能与Mixture-of-Experts(MoE)模型相当。该项目提供了官方代码,支持在PyTorch环境下的模型训练和推理。
☆一键收藏:
https ://sota.jiqizhixin.com/project/mole-2
🤖Agent开发
①项目:MarinaBox
★MarinaBox是一个用于创建和管理安全、隔离环境的工具包,专为AI智能体设计。它提供了安全的沙盒环境,可以在本地或云端运行隔离的浏览器和桌面会话,非常适合AI智能体任务和浏览器自动化。MarinaBox提供了全面的PythonSDK和命令行界面,用于会话管理、实时监控和控制,并与流行的自动化工具集成。其交互式UI仪表板支持实时会话查看和控制、会话录制和回放,以及会话管理界面。
☆一键收藏:
https ://sota.jiqizhixin.com/project/marinabox
今日大模型在线列表·API免费调用
2025年5月7日更新
Qwen3-8B
GLM-Z1-9B-0414
Phi-4-mini-instruct
InternVL3-14B
Qwen2.5-VL-7B-Instruct
gemma-3-4b-it
————-详细内容————-
【上新啦中文对话模型!】
Qwen3-8B
清湛/山东4090公共线路;推理用时
5s
API调用地址:
https ://sota.jiqizhixin.com/model-api/Qwen3-8B_d58a265355/chat/completions
获取秘钥:
https ://sota.jiqizhixin.com/xt-terminal/d3a14120-2ad9-40fb-a877-fff849c0f7c4
GLM-Z1-9B-0414
清湛/山东4090公共线路;推理用时5s
API调用地址:
https ://sota.jiqizhixin.com/model-api/GLM-Z1-9B-0414_00670b1ee4/chat/completions
获取秘钥:
https ://sota.jiqizhixin.com/xt-terminal/fed46ab7-aa27-4acd-885d-fc9d1213a9a9
Phi-4-mini-instruct
清湛/山东4090公共线路;推理用时
8s
API调用地址:
https ://sota.jiqizhixin.com/model-api/Phi-4-mini-instruct_c97b88ecef/chat/completions
获取秘钥:
https ://sota.jiqizhixin.com/xt-terminal/458064c9-8a63-4d17-97bd-8f1ad7284665
【上新啦多模态大模型!】
InternVL3-14B
清湛/山东4090公共线路;推理用时
6s
API调用地址:
https ://sota.jiqizhixin.com/model-api/InternVL3-14B_6bbf8e4a2c/chat/completions
获取秘钥:
https ://sota.jiqizhixin.com/xt-terminal/a3328e01-ea41-4eff-a41a-3e7a83ff0e27
Qwen2.5-VL-7B-Instruct
清湛/山东4090公共线路;推理用时10s
API调用地址:
https ://sota.jiqizhixin.com/model-api/Qwen2_5-VL-7B-Instruct_f922c61a9a/chat/completions
获取秘钥:
https ://sota.jiqizhixin.com/xt-terminal/37da5bd4-1647-44d6-a2f2-883d6016ad59
gemma-3-4b-it
清湛/山东4090公共线路;推理用时
5s
API调用地址:
https ://sota.jiqizhixin.com/model-api/gemma-3-4b-it_417bc6162b/chat/completions
获取秘钥:
https ://sota.jiqizhixin.com/xt-terminal/93fbe213-e000-4be7-9aa7-8bb70592ce00
📋查看API调用文档:
https ://jiqizhixin.feishu.cn/wiki/EfHwwEuXZimdgpkQLXLcrOwKnyb
💻试用更多模型API:
https ://sota.jiqizhixin.com/xt-terminal


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录