智谱发布GLM-4-32B系列模型,以32B模型参数比肩GPT-4o和DeepSeek V3/R1。
仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接
2025年4月14日,中国AI领军企业智谱AI正式推出GLM-4-32B-0414系列大模型,以32B参数量实现全方位能力跃升。该系列创新性融合对话、推理、沉思等多元智能模块,在基准测试中展现出与GPT-4o、DeepSeek-V3/R1等国际顶尖模型比肩的综合性能。尤为关键的是,智谱此次以MIT开源协议向全球开放模型权重,结合其突出的本地化部署优势,真正实现了”高性能”与”普惠性”的双重突破。作为”大模型六小虎”中IPO进程最快的企业,智谱此番动作既彰显了国产大模型的技术实力,更为行业树立了商业化与开源化协同发展的新范式。
提示词:设计一个支持自定义函数绘制的绘图板,可以添加和删除自定义函数,并为函数指定颜色。
给我设计一个移动端机器学习平台的UI,其中要包括训练任务,存储管理,和个人统计信息界面。个人信息统计界面要用图表展示用户过去一段时间的各类资源使用情况。使用TailwindCSS来美化页面,把这3个手机界面平铺展示到一个HTML页面中。
用SVG展示一个LLM的训练流程
论文:https ://arxiv.org/pdf/2406.12793
官网:https ://www.zhipu.ai/
试用:https ://modelscope.cn/studios/ZhipuAI/GLM-Z1-9B-0414/summary
文档:https ://github.com/THUDM/GLM-4/blob/main/README_zh.md
模型:https ://huggingface.co/collections/THUDM/glm-4-0414-67f3cbcb34dd9d252707cb2e
智谱AI正式推出新一代开源大模型GLM-4-32B-0414系列,以320亿参数规模实现多维度能力突破,综合表现媲美GPT-4o和DeepSeek-V3/R1等顶尖模型。该系列基于15T高质量数据预训练,特别强化了推理类合成数据,为后续强化学习优化奠定坚实基础。
在后训练阶段,GLM-4-32B-0414不仅优化了对话场景的人类偏好对齐,更通过拒绝采样(RejectionSampling)和强化学习(RL)技术,显著提升了指令遵循、工程代码、函数调用等关键能力,使其在智能体任务中表现更加稳定可靠。
实际测试表明,GLM-4-32B-0414在代码生成、Artifacts构建、函数调用、搜索增强问答等场景下表现优异,部分Benchmark甚至接近更大规模的GPT-4o和DeepSeek-V3-0324(671B)。同时,该模型延续了GLM家族本地化部署友好的特性,结合MIT开源协议,为开发者与企业提供了更灵活、高效的大模型应用方案。
作为国产大模型的代表之一,GLM-4-32B-0414的发布不仅展现了智谱AI的技术实力,也为全球开源社区贡献了一款兼具高性能与实用性**的先进模型。
GLM-Z1-32B-0414是具有深度思考能力的推理模型,这是在GLM-4-32B-0414的基础上,通过冷启动和扩展强化学习,以及在数学、代码和逻辑等任务上对模型的进一步训练得到的。相对于基础模型,GLM-Z1-32B-0414显著提升了数理能力和解决复杂任务的能力。在训练的过程中,我们还引入了基于对战排序反馈的通用强化学习,进一步增强了模型的通用能力。
GLM-Z1-Rumination-32B-0414是具有沉思能力的深度推理模型(对标OpenAI的DeepResearch)。不同于一般的深度思考模型,沉思模型通过更长时间的深度思考来解决更开放和复杂的问题(例如:撰写两个城市AI发展对比情况,以及未来的发展规划),沉思模型在深度思考过程中结合搜索工具处理复杂任务,并经过利用多种规则型奖励来指导和扩展端到端强化学习训练得到。Z1-Rumination在研究型写作和复杂检索任务上的能力得到了显著提升。
最后,GLM-Z1-9B-0414是一个惊喜。沿用上述一系列技术,训练了一个保持开源传统的9B小尺寸模型。尽管规模更小,GLM-Z1-9B-0414在数学推理和通用任务中依然展现出极为优秀的能力,其整体表现已处于同尺寸开源模型中的领先水平。特别是在资源受限的场景下,该模型在效率与效果之间实现了出色的平衡,为追求轻量化部署的用户提供了强有力的选择。
GLM-4-9B-0414由于其较小的模型容量,我们未对其智能体能力进行类似GLM-4-32B-0414的强化,主要针对翻译等需要大批量调用的场景进行优化。
对于SimpleQA和HotpotQA,我们分别从测试集中采样了近500条测试样例,提供所有模型最基础的search和click工具,另外确保其余Setting保持一致后,3次评测取平均值。
Agentlessv1.5.0其中的Embedding模型使用了BGE,基于FAISS进行相似性检索,为加快patch验证的速度同时尽可能保证效果,将运行单个实例的超时时间从默认的300s修改为180s
感谢你看到这里,也欢迎点击关注下方公众号并添加公众号小助手加入官方读者交流群,一个有趣有AI的AIGC公众号:关注AI、深度学习、计算机视觉、AIGC、StableDiffusion、Sora等相关技术,欢迎一起交流学习💗~