最快开源模型?GLM-Z1上手实测表现如何


最快开源模型?GLM-Z1上手实测表现如何

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

点击上方蓝字关注我们
IT咖啡馆,探索无限可能!
恭喜你发现了这个宝藏,这里你会发现优质的开源项目、IT知识和有趣的内容。
开快好省,这是我评判模型的一个维度,也就是:开放、速度、质量、成本。
最近国产开源模型又添新战力,而且它在这4个维度都有非常好的表现,它就是GLM最新的GLM-4-32B-0414模型系列。
今天我也第一时间就带你从技术内容、实际使用和开发接入等来深入测评下,这个号称目前最快的开原模型表现如何。
模型重点内容解析
本次智谱开源的系列GLM模型有9B和32B两种尺寸,包括基座模型、推理模型和沉思模型,模型比较多大家可以参考一下这个表。我就从前面说到的四个维度来看下这些开源模型的亮点。
GLM的系列模型都完全开源,并遵循宽松的MITLicense,不限制商用,无需申请。在开放的角度确实要点个赞。
天下武功唯快不破,根据官方数据,推理模型GLM-Z1-32B-0414推理速度可以做到最高200Tokens/秒,这是迄今为止国内最快的模型。等一会后面的实测大家就能感受下它有多快。
目前根据官方数据来看,虽然模型规模不大只有32B,但性能上可以比肩DeepSeek的671B。
同时也要注意一点,GLM系列模型的上下文长度全部提升为128K,这个也很实用。
那最后是成本,当然我主要指开发者的API调用,推理模型和基础模型都上线了BigModel开放平台,其中GLM-Z1-Air-0414的价格仅需DeepSeek-R1的1/30,而且GLM-Z1-Flash和GLM-4-Flash-250414还可以免费使用。可以说把性价比卷到了极致。
上手试用
智谱开放了最新的Z.AI,单字母的域名看着就下血本,审美上更清爽一点。
既然它说自己是最快的推理模型,那我们就来只管的体验一下它的速度,我同时打开2个浏览器放到一起,避免大家觉得有加速的情况。然后我们问2个逻辑题目,来看看他们的推理速度。
这里可以看到Z1的速度有点快的夸张,感觉整体时间不到deepseek的一半,对两边的模型都得到了正确的答案,这个快了之后真的体验很好,让我想起来DeepSeek刚出时候我感觉。
另外,我看到说它的生成SVG效果不错,我也来试验一个。
另外作为开发者,开发中就希望代码生成速度越快越好,接下来试试通过API的使用效果,首先我用cline来配合GLM-Z1来体验下代码生成的效果。
首先要安装vscode的cline插件,然后要配置模型,注意选择OpenAIcompatible。
然后baseURL填写智谱的这个URL,然后API填自己的,模型填glm-z1-airx,这个速度最快。
然后下面的模型设置里,调一下上下文、输出和temperature,然后就可以开始了。
我就让他帮我写一个UI界面,设计一个机器学习的APPUI
可以看到过程的速度非常快,其实cline作为免费的产品,调用感觉稍差了一点,和新模型的适配不好,经常会有问题提醒。
我再来举一个开发例子,我做一个针对金融市场新闻的实时解读,也给希望给大家一点使用启发。
这里我写了一个简单的抓取功能,去抓新浪财经的最新一条实时事件,然后把内容交给GLM-Z1去解读,在让它帮我找几只和这个事件有关联的股票。
那这里就是大概的实现效果和代码,最后会写入到一个markdown中去。
其实还可以再实现个发送功能,自动把分析发微信、发邮件等等,我觉得可以玩一玩。
结语
这一次我没有测试本地部署,因为32B的我跑不起来,GLM-Z1-Flash是免费的,我觉得9B本地部署不如用开开心心用API。总结一下这次的感觉,确实是快,真的很快,如果你也想来试试的话,追求速度上GLM-Z1-AirX,日常用免费的GLM-Z1-Flash,工作使用建议高性价比GLM-Z1-Air。
识别二维码关注我们
微信号-it-coffee
B站-IT-咖啡馆
头条号-IT咖啡馆


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录