PaddleOCR/deploy/pdserving/readme.md

5.7 KiB
Raw Blame History

Paddle Serving 服务部署(Beta)

本教程将介绍基于Paddle Serving部署PaddleOCR在线预测服务的详细步骤。

快速启动服务

1. 准备环境

我们先安装Paddle Serving相关组件 我们推荐用户使用GPU来做Paddle Serving的OCR服务部署

CUDA版本9.0

CUDNN版本7.0

操作系统版本CentOS 6以上

Python3操作指南

#以下提供beta版本的paddle serving whl包欢迎试用正式版会在8月中正式上线
#GPU用户下载server包使用这个链接
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_server_gpu-0.3.2-py3-none-any.whl
python -m pip install paddle_serving_server_gpu-0.3.2-py3-none-any.whl
#CPU版本使用这个链接
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_server-0.3.2-py3-none-any.whl
python -m pip install paddle_serving_server-0.3.2-py3-none-any.whl
#客户端和App包使用以下链接CPUGPU通用
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_client-0.3.2-cp36-none-any.whl
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_app-0.1.2-py3-none-any.whl
python -m pip install paddle_serving_app-0.1.2-py3-none-any.whl paddle_serving_client-0.3.2-cp36-none-any.whl

Python2操作指南

#以下提供beta版本的paddle serving whl包欢迎试用正式版会在8月中正式上线
#GPU用户下载server包使用这个链接
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_server_gpu-0.3.2-py2-none-any.whl
python -m pip install paddle_serving_server_gpu-0.3.2-py2-none-any.whl 
#CPU版本使用这个链接
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_server-0.3.2-py2-none-any.whl
python -m pip install paddle_serving_server-0.3.2-py2-none-any.whl

#客户端和App包使用以下链接CPUGPU通用
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_app-0.1.2-py2-none-any.whl
wget --no-check-certificate https://paddle-serving.bj.bcebos.com/others/paddle_serving_client-0.3.2-cp27-none-any.whl
python -m pip install paddle_serving_app-0.1.2-py2-none-any.whl paddle_serving_client-0.3.2-cp27-none-any.whl

2. 模型转换

可以使用paddle_serving_app提供的模型,执行下列命令

python -m paddle_serving_app.package --get_model ocr_rec
tar -xzvf ocr_rec.tar.gz
python -m paddle_serving_app.package --get_model ocr_det
tar -xzvf ocr_det.tar.gz 

执行上述命令会下载db_crnn_mobile的模型,如果想要下载规模更大的db_crnn_server模型,可以在下载预测模型并解压之后。参考如何从Paddle保存的预测模型转为Paddle Serving格式可部署的模型

我们以ch_rec_r34_vd_crnn模型作为例子,下载链接在:

wget --no-check-certificate https://paddleocr.bj.bcebos.com/ch_models/ch_rec_r34_vd_crnn_infer.tar
tar xf ch_rec_r34_vd_crnn_infer.tar

因此我们按照Serving模型转换教程运行下列python文件。

from paddle_serving_client.io import inference_model_to_serving
inference_model_dir = "ch_rec_r34_vd_crnn"
serving_client_dir = "serving_client_dir"
serving_server_dir = "serving_server_dir"
feed_var_names, fetch_var_names = inference_model_to_serving(
        inference_model_dir, serving_client_dir, serving_server_dir, model_filename="model", params_filename="params")

最终会在serving_client_dirserving_server_dir生成客户端和服务端的模型配置。

3. 启动服务

启动服务可以根据实际需求选择启动标准版或者快速版,两种方式的对比如下表:

版本 特点 适用场景
标准版 稳定性高,分布式部署 适用于吞吐量大,需要跨机房部署的情况
快速版 部署方便,预测速度快 适用于对预测速度要求高,迭代速度快的场景

方式1. 启动标准版服务

# cpugpu启动二选一以下是cpu启动
python -m paddle_serving_server.serve --model ocr_det_model --port 9293 
python ocr_web_server.py cpu
# gpu启动
python -m paddle_serving_server_gpu.serve --model ocr_det_model --port 9293 --gpu_id 0
python ocr_web_server.py gpu

方式2. 启动快速版服务

# cpugpu启动二选一以下是cpu启动
python ocr_local_server.py cpu
# gpu启动
python ocr_local_server.py gpu

发送预测请求

python ocr_web_client.py

返回结果格式说明

返回结果是json格式

{u'result': {u'res': [u'\u571f\u5730\u6574\u6cbb\u4e0e\u571f\u58e4\u4fee\u590d\u7814\u7a76\u4e2d\u5fc3', u'\u534e\u5357\u519c\u4e1a\u5927\u5b661\u7d20\u56fe']}}

我们也可以打印结果json串中res字段的每一句话

土地整治与土壤修复研究中心
华南农业大学1素图

自定义修改服务逻辑

ocr_web_server.py或是ocr_local_server.py当中的preprocess函数里面做了检测服务和识别服务的前处理,postprocess函数里面做了识别的后处理服务,可以在相应的函数中做修改。调用了paddle_serving_app库提供的常见CV模型的前处理/后处理库。

如果想要单独启动Paddle Serving的检测服务和识别服务参见下列表格, 执行对应的脚本即可并且在命令行参数注明用的CPU或是GPU来提供服务。

模型 标准版 快速版
检测 det_web_server.py det_local_server.py
识别 rec_web_server.py rec_local_server.py

更多信息参见Paddle Serving