PaddleOCR/PTDN/docs/test_inference_cpp.md

2.5 KiB
Raw Permalink Blame History

C++预测功能测试

C++预测功能测试的主程序为test_inference_cpp.sh可以测试基于C++预测库的模型推理功能。

1. 测试结论汇总

基于训练是否使用量化,进行本测试的模型可以分为正常模型量化模型这两类模型对应的C++预测功能汇总如下:

模型类型 device batchsize tensorrt mkldnn cpu多线程
正常模型 GPU 1/6 fp32/fp16 - -
正常模型 CPU 1/6 - fp32 支持
量化模型 GPU 1/6 int8 - -
量化模型 CPU 1/6 - int8 支持

2. 测试流程

2.1 功能测试

先运行prepare.sh准备数据和模型,然后运行test_inference_cpp.sh进行测试,最终在tests/output目录下生成cpp_infer_*.log后缀的日志文件。

bash tests/prepare.sh ./tests/configs/ppocr_det_mobile_params.txt "cpp_infer"

# 用法1:
bash tests/test_inference_cpp.sh ./tests/configs/ppocr_det_mobile_params.txt
# 用法2: 指定GPU卡预测第三个传入参数为GPU卡号
bash tests/test_inference_cpp.sh ./tests/configs/ppocr_det_mobile_params.txt '1'

2.2 精度测试

使用compare_results.py脚本比较模型预测的结果是否符合预期主要步骤包括

  • 提取日志中的预测坐标;
  • 从本地文件中提取保存好的坐标结果;
  • 比较上述两个结果是否符合精度预期,误差大于设置阈值时会报错。

使用方式

运行命令:

python3.7 tests/compare_results.py --gt_file=./tests/results/cpp_*.txt  --log_file=./tests/output/cpp_*.log --atol=1e-3 --rtol=1e-3

参数介绍:

  • gt_file 指向事先保存好的预测结果路径,支持*.txt 结尾,会自动索引*.txt格式的文件文件默认保存在tests/result/ 文件夹下
  • log_file: 指向运行tests/test.sh 脚本的infer模式保存的预测日志预测日志中打印的有预测结果比如文本框预测文本类别等等同样支持infer_*.log格式传入
  • atol: 设置的绝对误差
  • rtol: 设置的相对误差

运行结果

正常运行效果如下图:

出现不一致结果时的运行输出:

3. 更多教程

本文档为功能测试用更详细的c++预测使用教程请参考:服务器端C++预测