飞桨PaddleX昇腾版全面升级:更多模型支持,更强推理性能


飞桨PaddleX昇腾版全面升级:更多模型支持,更强推理性能

仅用于站内搜索,没有排版格式,具体信息请跳转上方微信公众号内链接

近期,飞桨低代码开发工具PaddleX昇腾版在经历近一年的技术迭代后,迎来重大升级。本次升级聚焦模型兼容性与推理效率两大核心能力,标志着飞桨框架在昇腾生态的适配能力迈入新阶段。
核心升级亮点
模型数量持续提升‌:
PaddleX昇腾版深度完善与优化飞桨与昇腾算子适配水平,全面验证的PaddleX模型数量从2024年8月的72个提升到200个,覆盖目标检测、图像分割、时序预测等主流AI场景‌,支持PaddleX的模型产线数量达到20个。
图1展示了PaddleX昇腾版模型支持数量变化趋势图,显示从2024年8月至2025年3月期间,已验证支持的模型数量从72个增长至200个。
模型列表:
https ://github.com/PaddlePaddle/PaddleX/blob/develop/docs/support_list/model_list_npu.md
产线列表:
https ://github.com/PaddlePaddle/PaddleX/blob/develop/docs/support_list/pipelines_list_npu.md
图1:PaddleX昇腾版模型支持数量
昇腾推理模型OM深度集成:‌
通过引入昇腾离线模型OM(OfflineModel),PaddleX昇腾版在推理场景中实现性能飞跃。而且,OM的引入还帮助PaddleX支持飞桨模型在Atlas200、Atlas300系列产品上推理部署。
OM作为离线模型,其性能优势主要来源于两个方面:一方面,OM模型会固定模型的结构与计算图,是一种整图下发的模式,可以极大的减少CPU与NPU之间的通讯次数,减少调度时间;另一方面,相比与ONNX,OM是华为昇腾NPU定制的离线模型,它针对硬件进行了深度优化,减少算子计算时间。此外,OM推理可以有效减少内存占用,并且在推理过程中因为调用链更短有更高的稳定性。图2展示了PP-OCRv4系列模型在昇腾910上使用OM推理模型时,分别在fp32与fp16精度下的性能对比,整体表现出fp16精度具有更高的吞吐优势。
图2:部分飞桨模型在910上使用OM推理模型不同算力精度下的性能
图3展示了2个飞桨模型在3个不同昇腾硬件上使用OM的推理性能对比,其中Atlas200IDKAI开发者套件与Atlas300IPro的性能数据是基于百信信息技术有限公司提供的机器测试获得。
图3:部分飞桨模型基于OM推理模型在不同昇腾推理卡上的性能
使用示例
以PP-OCR为例演示训推全流程:910训练+310P推理部署
安装环境:

一行命令完成模型训练:

两次转换得到OM模型:

将OM模型inference.om和训练导出的配置文件inference.yml放到310P机器上进行部署,运行以下脚本,即可得到推理结果:

小结
PaddleX昇腾版此次全新发版,一方面支持200个模型在昇腾训练硬件完成模型精调,另一方面支持在昇腾全系硬件进行高性能推理部署,欢迎广大开发者朋友试用体验。
课程预告
飞桨将联合昇腾、整机厂商百信,共同推出主题课程《飞桨PaddleX昇腾版全面升级》,5月12日19:00在飞桨PaddlePaddle视频号、飞桨PaddlePaddleB站、百信视频号进行直播。本次直播将面向AI开发者,聚焦昇腾OM推理模型与PaddleX进行端到端实战演练。
欢迎扫描下方海报中的二维码,报名加入飞桨新硬件用户官方交流群,提前预约直播!
关注【飞桨PaddlePaddle】公众号
获取更多技术内容~


文章作者: ZejunCao
版权声明: 本博客所有文章除特別声明外,均采用 CC BY 4.0 许可协议。转载请注明来源 ZejunCao !
  目录