2020-07-21 20:00:36 +08:00
|
|
|
|
# Paddle Serving 服务部署(Beta)
|
2020-07-20 15:39:56 +08:00
|
|
|
|
|
2020-07-20 15:42:51 +08:00
|
|
|
|
本教程将介绍基于[Paddle Serving](https://github.com/PaddlePaddle/Serving)部署PaddleOCR在线预测服务的详细步骤。
|
2020-07-20 15:39:56 +08:00
|
|
|
|
|
|
|
|
|
## 快速启动服务
|
|
|
|
|
|
|
|
|
|
### 1. 准备环境
|
2020-07-20 21:15:45 +08:00
|
|
|
|
我们先安装Paddle Serving相关组件
|
|
|
|
|
我们推荐用户使用GPU来做Paddle Serving的OCR服务部署
|
|
|
|
|
|
2020-07-21 19:22:25 +08:00
|
|
|
|
**CUDA版本:9.0**
|
2020-07-24 16:32:53 +08:00
|
|
|
|
|
2020-07-21 19:22:25 +08:00
|
|
|
|
**CUDNN版本:7.0**
|
2020-07-24 16:32:53 +08:00
|
|
|
|
|
2020-07-20 21:15:45 +08:00
|
|
|
|
**操作系统版本:CentOS 6以上**
|
|
|
|
|
|
2020-07-24 16:32:53 +08:00
|
|
|
|
**Python3操作指南:**
|
|
|
|
|
```
|
2020-08-10 14:31:50 +08:00
|
|
|
|
#以下提供beta版本的paddle serving whl包,欢迎试用,正式版会在8月中正式上线
|
|
|
|
|
#GPU用户下载server包使用这个链接
|
2020-07-24 16:32:53 +08:00
|
|
|
|
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_server_gpu-0.3.2-py3-none-any.whl
|
2020-08-10 14:31:50 +08:00
|
|
|
|
python -m pip install paddle_serving_server_gpu-0.3.2-py3-none-any.whl
|
2020-08-10 14:39:36 +08:00
|
|
|
|
#CPU版本使用这个链接
|
2020-08-10 14:31:50 +08:00
|
|
|
|
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_server-0.3.2-py3-none-any.whl
|
|
|
|
|
python -m pip install paddle_serving_server-0.3.2-py3-none-any.whl
|
|
|
|
|
#客户端和App包使用以下链接(CPU,GPU通用)
|
2020-07-24 16:32:53 +08:00
|
|
|
|
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_client-0.3.2-cp36-none-any.whl
|
|
|
|
|
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_app-0.1.2-py3-none-any.whl
|
2020-08-10 14:31:50 +08:00
|
|
|
|
python -m pip install paddle_serving_app-0.1.2-py3-none-any.whl paddle_serving_client-0.3.2-cp36-none-any.whl
|
2020-07-24 16:32:53 +08:00
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
**Python2操作指南:**
|
2020-07-20 21:15:45 +08:00
|
|
|
|
```
|
2020-08-10 14:31:50 +08:00
|
|
|
|
#以下提供beta版本的paddle serving whl包,欢迎试用,正式版会在8月中正式上线
|
|
|
|
|
#GPU用户下载server包使用这个链接
|
2020-07-21 20:00:36 +08:00
|
|
|
|
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_server_gpu-0.3.2-py2-none-any.whl
|
2020-08-10 14:31:50 +08:00
|
|
|
|
python -m pip install paddle_serving_server_gpu-0.3.2-py2-none-any.whl
|
2020-08-10 14:39:36 +08:00
|
|
|
|
#CPU版本使用这个链接
|
2020-08-10 14:31:50 +08:00
|
|
|
|
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_server-0.3.2-py2-none-any.whl
|
|
|
|
|
python -m pip install paddle_serving_server-0.3.2-py2-none-any.whl
|
|
|
|
|
|
|
|
|
|
#客户端和App包使用以下链接(CPU,GPU通用)
|
2020-07-21 20:00:36 +08:00
|
|
|
|
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_app-0.1.2-py2-none-any.whl
|
2020-07-21 20:24:26 +08:00
|
|
|
|
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_client-0.3.2-cp27-none-any.whl
|
2020-08-10 14:31:50 +08:00
|
|
|
|
python -m pip install paddle_serving_app-0.1.2-py2-none-any.whl paddle_serving_client-0.3.2-cp27-none-any.whl
|
2020-07-20 21:15:45 +08:00
|
|
|
|
```
|
2020-07-20 15:39:56 +08:00
|
|
|
|
|
|
|
|
|
### 2. 模型转换
|
2020-07-20 21:15:45 +08:00
|
|
|
|
可以使用`paddle_serving_app`提供的模型,执行下列命令
|
|
|
|
|
```
|
|
|
|
|
python -m paddle_serving_app.package --get_model ocr_rec
|
|
|
|
|
tar -xzvf ocr_rec.tar.gz
|
|
|
|
|
python -m paddle_serving_app.package --get_model ocr_det
|
|
|
|
|
tar -xzvf ocr_det.tar.gz
|
|
|
|
|
```
|
|
|
|
|
执行上述命令会下载`db_crnn_mobile`的模型,如果想要下载规模更大的`db_crnn_server`模型,可以在下载预测模型并解压之后。参考[如何从Paddle保存的预测模型转为Paddle Serving格式可部署的模型](https://github.com/PaddlePaddle/Serving/blob/develop/doc/INFERENCE_TO_SERVING_CN.md)。
|
2020-07-20 15:39:56 +08:00
|
|
|
|
|
2020-08-19 14:29:13 +08:00
|
|
|
|
我们以`ch_rec_r34_vd_crnn`模型作为例子,下载链接在:
|
|
|
|
|
|
|
|
|
|
```
|
|
|
|
|
wget --no-check-certificate https://paddleocr.bj.bcebos.com/ch_models/ch_rec_r34_vd_crnn_infer.tar
|
|
|
|
|
tar xf ch_rec_r34_vd_crnn_infer.tar
|
|
|
|
|
```
|
|
|
|
|
因此我们按照Serving模型转换教程,运行下列python文件。
|
|
|
|
|
```
|
|
|
|
|
from paddle_serving_client.io import inference_model_to_serving
|
|
|
|
|
inference_model_dir = "ch_rec_r34_vd_crnn"
|
|
|
|
|
serving_client_dir = "serving_client_dir"
|
|
|
|
|
serving_server_dir = "serving_server_dir"
|
|
|
|
|
feed_var_names, fetch_var_names = inference_model_to_serving(
|
|
|
|
|
inference_model_dir, serving_client_dir, serving_server_dir, model_filename="model", params_filename="params")
|
|
|
|
|
```
|
|
|
|
|
最终会在`serving_client_dir`和`serving_server_dir`生成客户端和服务端的模型配置。
|
|
|
|
|
|
2020-07-20 15:39:56 +08:00
|
|
|
|
### 3. 启动服务
|
|
|
|
|
启动服务可以根据实际需求选择启动`标准版`或者`快速版`,两种方式的对比如下表:
|
|
|
|
|
|
|
|
|
|
|版本|特点|适用场景|
|
|
|
|
|
|-|-|-|
|
2020-07-20 21:15:45 +08:00
|
|
|
|
|标准版|稳定性高,分布式部署|适用于吞吐量大,需要跨机房部署的情况|
|
|
|
|
|
|快速版|部署方便,预测速度快|适用于对预测速度要求高,迭代速度快的场景|
|
2020-07-20 15:39:56 +08:00
|
|
|
|
|
|
|
|
|
#### 方式1. 启动标准版服务
|
|
|
|
|
|
2020-07-20 21:15:45 +08:00
|
|
|
|
```
|
2020-08-10 14:31:50 +08:00
|
|
|
|
# cpu,gpu启动二选一,以下是cpu启动
|
2020-08-10 14:39:36 +08:00
|
|
|
|
python -m paddle_serving_server.serve --model ocr_det_model --port 9293
|
2020-08-10 14:31:50 +08:00
|
|
|
|
python ocr_web_server.py cpu
|
|
|
|
|
# gpu启动
|
2020-08-10 14:39:36 +08:00
|
|
|
|
python -m paddle_serving_server_gpu.serve --model ocr_det_model --port 9293 --gpu_id 0
|
2020-08-10 14:31:50 +08:00
|
|
|
|
python ocr_web_server.py gpu
|
2020-07-20 21:15:45 +08:00
|
|
|
|
```
|
|
|
|
|
|
2020-07-20 15:39:56 +08:00
|
|
|
|
#### 方式2. 启动快速版服务
|
|
|
|
|
|
2020-07-20 21:15:45 +08:00
|
|
|
|
```
|
2020-08-10 14:31:50 +08:00
|
|
|
|
# cpu,gpu启动二选一,以下是cpu启动
|
|
|
|
|
python ocr_local_server.py cpu
|
|
|
|
|
# gpu启动
|
|
|
|
|
python ocr_local_server.py gpu
|
2020-07-20 21:15:45 +08:00
|
|
|
|
```
|
2020-07-20 15:39:56 +08:00
|
|
|
|
|
|
|
|
|
## 发送预测请求
|
|
|
|
|
|
2020-07-20 21:15:45 +08:00
|
|
|
|
```
|
|
|
|
|
python ocr_web_client.py
|
|
|
|
|
```
|
|
|
|
|
|
2020-07-20 15:39:56 +08:00
|
|
|
|
## 返回结果格式说明
|
|
|
|
|
|
2020-07-20 21:15:45 +08:00
|
|
|
|
返回结果是json格式
|
|
|
|
|
```
|
|
|
|
|
{u'result': {u'res': [u'\u571f\u5730\u6574\u6cbb\u4e0e\u571f\u58e4\u4fee\u590d\u7814\u7a76\u4e2d\u5fc3', u'\u534e\u5357\u519c\u4e1a\u5927\u5b661\u7d20\u56fe']}}
|
|
|
|
|
```
|
|
|
|
|
我们也可以打印结果json串中`res`字段的每一句话
|
|
|
|
|
```
|
|
|
|
|
土地整治与土壤修复研究中心
|
|
|
|
|
华南农业大学1素图
|
|
|
|
|
```
|
|
|
|
|
|
2020-07-20 15:42:51 +08:00
|
|
|
|
## 自定义修改服务逻辑
|
2020-07-20 21:15:45 +08:00
|
|
|
|
|
2020-07-21 19:19:36 +08:00
|
|
|
|
在`ocr_web_server.py`或是`ocr_local_server.py`当中的`preprocess`函数里面做了检测服务和识别服务的前处理,`postprocess`函数里面做了识别的后处理服务,可以在相应的函数中做修改。调用了`paddle_serving_app`库提供的常见CV模型的前处理/后处理库。
|
2020-07-20 21:15:45 +08:00
|
|
|
|
|
2020-08-10 14:31:50 +08:00
|
|
|
|
如果想要单独启动Paddle Serving的检测服务和识别服务,参见下列表格, 执行对应的脚本即可,并且在命令行参数注明用的CPU或是GPU来提供服务。
|
2020-07-20 21:15:45 +08:00
|
|
|
|
|
|
|
|
|
| 模型 | 标准版 | 快速版 |
|
|
|
|
|
| ---- | ----------------- | ------------------- |
|
|
|
|
|
| 检测 | det_web_server.py | det_local_server.py |
|
|
|
|
|
| 识别 | rec_web_server.py | rec_local_server.py |
|
|
|
|
|
|
|
|
|
|
更多信息参见[Paddle Serving](https://github.com/PaddlePaddle/Serving)
|