mirror of
				https://github.com/PaddlePaddle/PaddleOCR.git
				synced 2025-10-31 01:39:11 +00:00 
			
		
		
		
	
		
			
				
	
	
		
			198 lines
		
	
	
		
			5.3 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
			
		
		
	
	
			198 lines
		
	
	
		
			5.3 KiB
		
	
	
	
		
			Markdown
		
	
	
	
	
	
| # 服务器端C++预测
 | ||
| 
 | ||
| 本教程将介绍在服务器端部署PaddleOCR超轻量中文检测、识别模型的详细步骤。
 | ||
| 
 | ||
| 
 | ||
| ## 1. 准备环境
 | ||
| 
 | ||
| ### 运行准备
 | ||
| - Linux环境,推荐使用docker。
 | ||
| 
 | ||
| ### 1.1 编译opencv库
 | ||
| 
 | ||
| * 首先需要从opencv官网上下载在Linux环境下源码编译的包,以opencv3.4.7为例,下载命令如下。
 | ||
| 
 | ||
| ```
 | ||
| wget https://github.com/opencv/opencv/archive/3.4.7.tar.gz
 | ||
| tar -xf 3.4.7.tar.gz
 | ||
| ```
 | ||
| 
 | ||
| 最终可以在当前目录下看到`opencv-3.4.7/`的文件夹。
 | ||
| 
 | ||
| * 编译opencv,设置opencv源码路径(`root_path`)以及安装路径(`install_path`)。进入opencv源码路径下,按照下面的方式进行编译。
 | ||
| 
 | ||
| ```shell
 | ||
| root_path=your_opencv_root_path
 | ||
| install_path=${root_path}/opencv3
 | ||
| 
 | ||
| rm -rf build
 | ||
| mkdir build
 | ||
| cd build
 | ||
| 
 | ||
| cmake .. \
 | ||
|     -DCMAKE_INSTALL_PREFIX=${install_path} \
 | ||
|     -DCMAKE_BUILD_TYPE=Release \
 | ||
|     -DBUILD_SHARED_LIBS=OFF \
 | ||
|     -DWITH_IPP=OFF \
 | ||
|     -DBUILD_IPP_IW=OFF \
 | ||
|     -DWITH_LAPACK=OFF \
 | ||
|     -DWITH_EIGEN=OFF \
 | ||
|     -DCMAKE_INSTALL_LIBDIR=lib64 \
 | ||
|     -DWITH_ZLIB=ON \
 | ||
|     -DBUILD_ZLIB=ON \
 | ||
|     -DWITH_JPEG=ON \
 | ||
|     -DBUILD_JPEG=ON \
 | ||
|     -DWITH_PNG=ON \
 | ||
|     -DBUILD_PNG=ON \
 | ||
|     -DWITH_TIFF=ON \
 | ||
|     -DBUILD_TIFF=ON
 | ||
| 
 | ||
| make -j
 | ||
| make install
 | ||
| ```
 | ||
| 
 | ||
| 
 | ||
| 其中`root_path`为下载的opencv源码路径,`install_path`为opencv的安装路径,`make install`完成之后,会在该文件夹下生成opencv头文件和库文件,用于后面的OCR代码编译。
 | ||
| 
 | ||
| 最终在安装路径下的文件结构如下所示。
 | ||
| 
 | ||
| ```
 | ||
| opencv3/
 | ||
| |-- bin
 | ||
| |-- include
 | ||
| |-- lib
 | ||
| |-- lib64
 | ||
| |-- share
 | ||
| ```
 | ||
| 
 | ||
| ### 1.2 下载或者编译Paddle预测库
 | ||
| 
 | ||
| * 有2种方式获取Paddle预测库,下面进行详细介绍。
 | ||
| 
 | ||
| #### 1.2.1 预测库源码编译
 | ||
| * 如果希望获取最新预测库特性,可以从Paddle github上克隆最新代码,源码编译预测库。
 | ||
| * 可以参考[Paddle预测库官网](https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html)的说明,从github上获取Paddle代码,然后进行编译,生成最新的预测库。使用git获取代码方法如下。
 | ||
| 
 | ||
| ```shell
 | ||
| git clone https://github.com/PaddlePaddle/Paddle.git
 | ||
| ```
 | ||
| 
 | ||
| * 进入Paddle目录后,编译方法如下。
 | ||
| 
 | ||
| ```shell
 | ||
| rm -rf build
 | ||
| mkdir build
 | ||
| cd build
 | ||
| 
 | ||
| cmake  .. \
 | ||
|     -DWITH_CONTRIB=OFF \
 | ||
|     -DWITH_MKL=ON \
 | ||
|     -DWITH_MKLDNN=ON  \
 | ||
|     -DWITH_TESTING=OFF \
 | ||
|     -DCMAKE_BUILD_TYPE=Release \
 | ||
|     -DWITH_INFERENCE_API_TEST=OFF \
 | ||
|     -DON_INFER=ON \
 | ||
|     -DWITH_PYTHON=ON
 | ||
| make -j
 | ||
| make inference_lib_dist
 | ||
| ```
 | ||
| 
 | ||
| 更多编译参数选项可以参考Paddle C++预测库官网:[https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html](https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html)。
 | ||
| 
 | ||
| 
 | ||
| * 编译完成之后,可以在`build/fluid_inference_install_dir/`文件下看到生成了以下文件及文件夹。
 | ||
| 
 | ||
| ```
 | ||
| build/fluid_inference_install_dir/
 | ||
| |-- CMakeCache.txt
 | ||
| |-- paddle
 | ||
| |-- third_party
 | ||
| |-- version.txt
 | ||
| ```
 | ||
| 
 | ||
| 其中`paddle`就是之后进行C++预测时所需的Paddle库,`version.txt`中包含当前预测库的版本信息。
 | ||
| 
 | ||
| #### 1.2.2 直接下载安装
 | ||
| 
 | ||
| * [Paddle预测库官网](https://www.paddlepaddle.org.cn/documentation/docs/zh/advanced_guide/inference_deployment/inference/build_and_install_lib_cn.html)上提供了不同cuda版本的Linux预测库,可以在官网查看并选择合适的预测库版本。
 | ||
| 
 | ||
| * 下载之后使用下面的方法解压。
 | ||
| 
 | ||
| ```
 | ||
| tar -xf fluid_inference.tgz
 | ||
| ```
 | ||
| 
 | ||
| 最终会在当前的文件夹中生成`fluid_inference/`的子文件夹。
 | ||
| 
 | ||
| 
 | ||
| ## 2 开始运行
 | ||
| 
 | ||
| ### 2.1 将模型导出为inference model
 | ||
| 
 | ||
| * 可以参考[模型预测章节](../../doc/doc_ch/inference.md),导出inference model,用于模型预测。模型导出之后,假设放在`inference`目录下,则目录结构如下。
 | ||
| 
 | ||
| ```
 | ||
| inference/
 | ||
| |-- det_db
 | ||
| |   |--model
 | ||
| |   |--params
 | ||
| |-- rec_rcnn
 | ||
| |   |--model
 | ||
| |   |--params
 | ||
| ```
 | ||
| 
 | ||
| 
 | ||
| ### 2.2 编译PaddleOCR C++预测demo
 | ||
| 
 | ||
| * 编译命令如下,其中Paddle C++预测库、opencv等其他依赖库的地址需要换成自己机器上的实际地址。
 | ||
| 
 | ||
| 
 | ||
| ```shell
 | ||
| sh tools/build.sh
 | ||
| ```
 | ||
| 
 | ||
| 具体地,`tools/build.sh`中内容如下。
 | ||
| 
 | ||
| ```shell
 | ||
| OPENCV_DIR=your_opencv_dir
 | ||
| LIB_DIR=your_paddle_inference_dir
 | ||
| CUDA_LIB_DIR=your_cuda_lib_dir
 | ||
| CUDNN_LIB_DIR=/your_cudnn_lib_dir
 | ||
| 
 | ||
| BUILD_DIR=build
 | ||
| rm -rf ${BUILD_DIR}
 | ||
| mkdir ${BUILD_DIR}
 | ||
| cd ${BUILD_DIR}
 | ||
| cmake .. \
 | ||
|     -DPADDLE_LIB=${LIB_DIR} \
 | ||
|     -DWITH_MKL=ON \
 | ||
|     -DDEMO_NAME=ocr_system \
 | ||
|     -DWITH_GPU=OFF \
 | ||
|     -DWITH_STATIC_LIB=OFF \
 | ||
|     -DUSE_TENSORRT=OFF \
 | ||
|     -DOPENCV_DIR=${OPENCV_DIR} \
 | ||
|     -DCUDNN_LIB=${CUDNN_LIB_DIR} \
 | ||
|     -DCUDA_LIB=${CUDA_LIB_DIR} \
 | ||
| 
 | ||
| make -j
 | ||
| ```
 | ||
| 
 | ||
| `OPENCV_DIR`为opencv编译安装的地址;`LIB_DIR`为下载(`fluid_inference`文件夹)或者编译生成的Paddle预测库地址(`build/fluid_inference_install_dir`文件夹);`CUDA_LIB_DIR`为cuda库文件地址,在docker中;为`/usr/local/cuda/lib64`;`CUDNN_LIB_DIR`为cudnn库文件地址,在docker中为`/usr/lib/x86_64-linux-gnu/`。
 | ||
| 
 | ||
| 
 | ||
| * 编译完成之后,会在`build`文件夹下生成一个名为`ocr_system`的可执行文件。
 | ||
| 
 | ||
| 
 | ||
| ### 运行demo
 | ||
| * 执行以下命令,完成对一幅图像的OCR识别与检测,最终输出
 | ||
| 
 | ||
| ```shell
 | ||
| sh tools/run.sh
 | ||
| ```
 | ||
| 
 | ||
| 最终屏幕上会输出检测结果如下。
 | ||
| 
 | ||
| <div align="center">
 | ||
|     <img src="../imgs/cpp_infer_pred_12.png" width="600">
 | ||
| </div>
 | 
