当前位置: 首页 > news >正文

【昇腾推理PaddleOCR】生产级部署方式

已知的在昇腾上推理Paddle OCR有三种方法:
概要:

PyTorch官方提供了昇腾插件包,安装后虽然可以支持PytorchOCR和PaddlePaddle的推理任务,但性能较低。换句话说,PaddlePaddle框架层面支持了昇腾,但具体到某个模型、模型算子就不一定了。

为了充分发挥昇腾硬件的潜力,可以采用离线推理方案:
​​模型转换​​:将Paddle模型转换为昇腾专用的OM格式;
​高效推理​​:通过昇腾 ACL 框架运行,显著提升性能。
这种方案通过硬件深度优化,能大幅提升推理速度。
但由于学习成本高、效果不确定等,目前网上没有这个的完整解决方案。
------------------------------------------- 分界线 -----------------------------------------------
因为工作需要,发现了另一种途径,然后实现了在昇腾高性能推理、服务化的方式。已开源,欢迎 Star。

1. Paddle官方

使用Paddle官方提供的昇腾环境。优点是简单、官方兼容。缺点很明显:性能很差,不适用于企业真实场景。

2. 昇腾ACL

使用昇腾工具转为昇腾支持的om格式的模型,再利用昇腾ACL(昇腾的C++推理框架)编写推理脚本。优点是:性能好。缺点很明显:学习成本很高、并且就算用ACL编写出整个Pipeline,也可能会有其他问题,且不容易分析调整。

模型转换和推理可以参考我的另一篇博文:https://blog.csdn.net/weixin_45653525/article/details/147519518?spm=1001.2014.3001.5501

3. 生产可用级

邪修的路子往往直达痛点使用Pytorch推理Paddle OCR模型
经过测试,性能很不错:0.5s一张图片,经过批处理优化后甚至可达0.2s一页。精度也OK,并且稳定性在企业中已经验证过,7*24稳定可靠。缺点是大图片会导致显存升高,需要专门拿出一张卡部署,问题其实也不大。
总的来说,这个速度已经很不错了,并且在当前Paddle官方没有很好支持昇腾的情况下,绝对是首选。

高性能、高可用的昇腾推理方式已开源,期待各位 ⭐ Star~⭐

地址:https://github.com/momomo623/PaddleOCR-NPU

传送门

http://www.xdnf.cn/news/1233685.html

相关文章:

  • SpringBoot与TurboGears2跨栈、整合AI服务、智能客服路由系统整合实战
  • FreeRTOS源码分析二:task启动(RISCV架构)
  • 单位长度上的RC参数
  • Codeforces Round 1039 (Div. 2) A-C
  • sifu mod制作 相关经验
  • LangGraph认知篇-Command函数
  • 【ROS2】ROS2节点Node机制与常用命令行
  • 快速了解决策树
  • 一个物理引擎仿真器(mujoco这种)的计算流程
  • 面经——电子电路技术知识详解
  • 关于鸦片战争的历史
  • python匿名函数lambda
  • 题单【模拟与高精度】
  • leetcode热题——组合
  • Java 中的 HashMap.merge() 方法详解
  • 【AI学习】RadioDiff:代码学习
  • 西门子 G120 变频器全解析:从认知到参数设置
  • SpringBoot 02 AOP
  • 「iOS」————weak底层原理
  • 「iOS」————SideTable
  • OpenVLA复现
  • 数据集-目标检测系列- 地球仪 数据集 globe>> DataBall
  • XGBoost三部曲:XGBoost参数详解
  • 数据结构(12)二叉树
  • 【数据结构】栈的顺序存储(整型栈、字符栈)
  • 在linux(ubuntu)服务器上安装NTQQ并使用
  • VS2019安装HoloLens 没有设备选项
  • rag学习-以项目为基础快速启动掌握rag
  • 1. 两数之和
  • uniapp 数组的用法