PaddleOCR/doc/doc_ch/FAQ.md

476 lines
36 KiB
Markdown
Raw Normal View History

2020-08-26 16:43:41 +08:00
# FAQ
2020-06-08 12:48:13 +08:00
2020-08-26 16:43:41 +08:00
## 写在前面
2020-06-08 12:48:13 +08:00
2020-08-26 16:43:41 +08:00
- 我们收集整理了issues和用户群中的常见问题和解答并且会不断更新旨在为OCR的开发者提供一些参考也希望帮助大家少走一些弯路。
2020-06-08 12:48:13 +08:00
2020-08-26 16:43:41 +08:00
- OCR领域大佬众多本文档回答主要依赖有限的项目实践难免挂一漏万如有遗漏和不足也**希望有识之士帮忙补充和修正**,万分感谢。
2020-06-08 12:48:13 +08:00
2020-08-26 16:43:41 +08:00
## PaddleOCR常见问题汇总(持续更新)
2020-08-26 16:43:41 +08:00
* [【精选】OCR精选10个问题](#【精选】OCR精选10个问题)
2020-08-26 17:17:07 +08:00
* [【理论篇】OCR通用21个问题](#【理论篇】OCR通用问题)
2020-08-26 16:43:41 +08:00
* [基础知识3题](#基础知识)
* [数据集4题](#数据集)
* [模型训练调优6题](#模型训练调优)
* [预测部署8题](#预测部署)
* [【实战篇】PaddleOCR实战53个问题](#【实战篇】PaddleOCR实战问题)
* [使用咨询16题](#使用咨询)
* [数据集9题](#数据集)
* [模型训练调优13题](#模型训练调优)
* [预测部署15题](#[预测部署)
2020-06-08 12:48:13 +08:00
2020-08-26 16:43:41 +08:00
## 【精选】OCR精选10个问题
#### Q1.1.1:基于深度学习的文字检测方法有哪几种?各有什么优缺点?
**A**:常用的基于深度学习的文字检测方法一般可以分为基于回归的、基于分割的两大类,当然还有一些将两者进行结合的方法。
1基于回归的方法分为box回归和像素值回归。a. 采用box回归的方法主要有CTPN、Textbox系列和EAST这类算法对规则形状文本检测效果较好但无法准确检测不规则形状文本。 b. 像素值回归的方法主要有CRAFT和SA-Text这类算法能够检测弯曲文本且对小文本效果优秀但是实时性能不够。
2基于分割的算法如PSENet这类算法不受文本形状的限制对各种形状的文本都能取得较好的效果但是往往后处理比较复杂导致耗时严重。目前也有一些算法专门针对这个问题进行改进如DB将二值化进行近似使其可导融入训练从而获取更准确的边界大大降低了后处理的耗时。
#### Q1.1.2对于中文行文本识别CTC和Attention哪种更优
**A**1从效果上来看通用OCR场景CTC的识别效果优于Attention因为带识别的字典中的字符比较多常用中文汉字三千字以上如果训练样本不足的情况下对于这些字符的序列关系挖掘比较困难。中文场景下Attention模型的优势无法体现。而且Attention适合短语句识别对长句子识别比较差。
2从训练和预测速度上Attention的串行解码结构限制了预测速度而CTC网络结构更高效预测速度上更有优势。
#### Q1.1.3弯曲形变的文字识别需要怎么处理TPS应用场景是什么是否好用
**A**1在大多数情况下如果遇到的场景弯曲形变不是太严重检测4个顶点然后直接通过仿射变换转正识别就足够了。
2如果不能满足需求可以尝试使用TPSThin Plate Spline即薄板样条插值。TPS是一种插值算法经常用于图像变形等通过少量的控制点就可以驱动图像进行变化。一般用在有弯曲形变的文本识别中当检测到不规则的/弯曲的使用基于分割的方法检测算法文本区域往往先使用TPS算法对文本区域矫正成矩形再进行识别STAR-Net、RARE等识别算法中引入了TPS模块。
**Warning**TPS看起来美好在实际应用时经常发现并不够鲁棒并且会增加耗时需要谨慎使用。
#### Q1.1.4简单的对于精度要求不高的OCR任务数据集需要准备多少张呢
**A**1训练数据的数量和需要解决问题的复杂度有关系。难度越大精度要求越高则数据集需求越大而且一般情况实际中的训练数据越多效果越好。
2对于精度要求不高的场景检测任务和识别任务需要的数据量是不一样的。对于检测任务500张图像可以保证基本的检测效果。对于识别任务需要保证识别字典中每个字符出现在不同场景的行文本图像数目需要大于200张举例如果有字典中有5个字每个字都需要出现在200张图片以上那么最少要求的图像数量应该在200-1000张之间这样可以保证基本的识别效果。
#### Q1.1.5:背景干扰的文字(如印章盖到落款上,需要识别落款或者印章中的文字),如何识别?
**A**1在人眼确认可识别的条件下对于背景有干扰的文字首先要保证检测框足够准确如果检测框不准确需要考虑是否可以通过过滤颜色等方式对图像预处理并且增加更多相关的训练数据在识别的部分注意在训练数据中加入背景干扰类的扩增图像。
2如果MobileNet模型不能满足需求可以尝试ResNet系列大模型来获得更好的效果
#### Q1.1.6OCR领域常用的评估指标是什么
**A**:对于两阶段的可以分开来看,分别是检测和识别阶段
1检测阶段先按照检测框和标注框的IOU评估IOU大于某个阈值判断为检测准确。这里检测框和标注框不同于一般的通用目标检测框是采用多边形进行表示。
2020-08-26 17:17:07 +08:00
检测准确率:正确的检测框个数在全部检测框的占比,主要是判断检测指标.
2020-08-26 16:43:41 +08:00
2020-08-26 17:17:07 +08:00
检测召回率:正确的检测框个数在全部标注框的占比,主要是判断漏检的指标。
2020-08-26 16:43:41 +08:00
2识别阶段
2020-08-26 17:17:07 +08:00
字符识别准确率,即正确识别的文本行占标注的文本行数量的比例,只有整行文本识别对才算正确识别。
2020-08-26 16:43:41 +08:00
3端到端统计
2020-08-26 17:17:07 +08:00
端对端准确率:准确检测并正确识别文本行在全部标注文本行的占比;
端到端召回率:准确检测并正确识别文本行在 检测到的文本行数量 的占比准确检测的标准是检测框与标注框的IOU大于某个阈值正确识别的的检测框中的文本与标注的文本相同。
2020-08-26 16:43:41 +08:00
#### Q1.1.7:单张图上多语种并存识别(如单张图印刷体和手写文字并存),应该如何处理?
**A**单张图像中存在多种类型文本的情况很常见典型的以学生的试卷为代表一张图像同时存在手写体和印刷体两种文本这类情况下可以尝试”1个检测模型+1个N分类模型+N个识别模型”的解决方案。
其中不同类型文本共用同一个检测模型N分类模型指额外训练一个分类器将检测到的文本进行分类如手写+印刷的情况就是二分类N种语言就是N分类在识别的部分针对每个类型的文本单独训练一个识别模型如手写+印刷的场景,就需要训练一个手写体识别模型,一个印刷体识别模型,如果一个文本框的分类结果是手写体,那么就传给手写体识别模型进行识别,其他情况同理。
#### Q1.1.8请问PaddleOCR项目中的中文超轻量和通用模型用了哪些数据集训练多少样本gpu什么配置跑了多少个epoch大概跑了多久
**A**
1检测的话LSVT街景数据集共3W张图像超轻量模型150epoch左右2卡V100 跑了不到2天通用模型2卡V100 150epoch 不到4天。
2
识别的话520W左右的数据集真实数据26W+合成数据500W训练超轻量模型4卡V100总共训练了5天左右。通用模型4卡V100共训练6天。
超轻量模型训练分为2个阶段
2020-08-26 17:17:07 +08:00
(1)全量数据训练50epoch耗时3天
(2)合成数据+真实数据按照1:1数据采样进行finetune训练200epoch耗时2天
2020-08-26 16:43:41 +08:00
通用模型训练:
真实数据+合成数据,动态采样(11)训练200epoch耗时 6天左右。
#### Q1.1.9PaddleOCR模型推理方式有几种各自的优缺点是什么
**A**:目前推理方式支持基于训练引擎推理和基于预测引擎推理。
1基于训练引擎推理不需要转换模型但是需要先组网再load参数语言只支持python不适合系统集成。
2基于预测引擎的推理需要先转换模型为inference格式然后可以进行不需要组网的推理语言支持c++和python适合系统集成。
#### Q1.1.10PaddleOCR中对于模型预测加速CPU加速的途径有哪些基于TenorRT加速GPU对输入有什么要求
**A**1CPU可以使用mkldnn进行加速对于python inference的话可以把enable_mkldnn改为true[参考代码](https://github.com/PaddlePaddle/PaddleOCR/blob/549108fe0aa0d87c0a3b2d471f1c653e89daab80/tools/infer/utility.py#L73)对于cpp inference的话在配置文件里面配置use_mkldnn 1即可[参考代码](https://github.com/PaddlePaddle/PaddleOCR/blob/549108fe0aa0d87c0a3b2d471f1c653e89daab80/deploy/cpp_infer/tools/config.txt#L6)
2GPU需要注意变长输入问题等TRT6 之后才支持变长输入
## 【理论篇】OCR通用问题
### 基础知识
#### Q2.1.1CRNN能否识别两行的文字?还是说必须一行?
**A**CRNN是一种基于1D-CTC的算法其原理决定无法识别2行或多行的文字只能单行识别。
#### Q2.1.2:怎么判断行文本图像是否是颠倒的?
**A**有两种方案1原始图像和颠倒图像都进行识别预测取得分较高的为识别结果。
2训练一个正常图像和颠倒图像的方向分类器进行判断。
#### Q2.1.3目前OCR普遍是二阶段端到端的方案在业界落地情况如何
**A**端到端在文字分布密集的业务场景效率会比较有保证精度的话看自己业务数据积累情况如果行级别的识别数据积累比较多的话two-stage会比较好。百度的落地场景比如工业仪表识别、车牌识别都用到端到端解决方案。
### 数据集
#### Q2.2.1:支持空格的模型,标注数据的时候是不是要标注空格?中间几个空格都要标注出来么?
**A**:如果需要检测和识别模型,就需要在标注的时候把空格标注出来,而且在字典中增加空格对应的字符。标注过程中,如果中间几个空格标注一个就行。
#### Q2.2.2:如果考虑支持竖排文字识别,相关的数据集如何合成?
**A**:竖排文字与横排文字合成方式相同,只是选择了垂直字体。合成工具推荐:[text_renderer](https://github.com/Sanster/text_renderer)
#### Q2.2.3训练文字识别模型真实数据有30w合成数据有500w需要做样本均衡吗
**A**需要一般需要保证一个batch中真实数据样本和合成数据样本的比例是11~13左右效果比较理想。如果合成数据过大会过拟合到合成数据预测效果往往不佳。还有一种**启发性**的尝试是可以先用大量合成数据训练一个base模型然后再用真实数据微调在一些简单场景效果也是会有提升的。
#### Q2.2.4:请问一下,竖排文字识别时候,字的特征已经变了,这种情况在数据集和字典标注是新增一个类别还是多个角度的字共享一个类别?
**A**:可以根据实际场景做不同的尝试,共享一个类别是可以收敛,效果也还不错。但是如果分开训练,同类样本之间一致性更好,更容易收敛,识别效果会更优。
### 训练训练调优
#### Q2.3.1:如何更换文本检测/识别的backbone
**A**无论是文字检测还是文字识别骨干网络的选择是预测效果和预测效率的权衡。一般选择更大规模的骨干网络例如ResNet101_vd则检测或识别更准确但预测耗时相应也会增加。而选择更小规模的骨干网络例如MobileNetV3_small_x0_35则预测更快但检测或识别的准确率会大打折扣。幸运的是不同骨干网络的检测或识别效果与在ImageNet数据集图像1000分类任务效果正相关。[**飞桨图像分类套件PaddleClas**](https://github.com/PaddlePaddle/PaddleClas)汇总了ResNet_vd、Res2Net、HRNet、MobileNetV3、GhostNet等23种系列的分类网络结构在上述图像分类任务的top1识别准确率GPU(V100和T4)和CPU(骁龙855)的预测耗时以及相应的[**117个预训练模型下载地址**](https://paddleclas.readthedocs.io/zh_CN/latest/models/models_intro.html)。
1文字检测骨干网络的替换主要是确定类似与ResNet的4个stages以方便集成后续的类似FPN的检测头。此外对于文字检测问题使用ImageNet训练的分类预训练模型可以加速收敛和效果提升。
2文字识别的骨干网络的替换需要注意网络宽高stride的下降位置。由于文本识别一般宽高比例很大因此高度下降频率少一些宽度下降频率多一些。可以参考PaddleOCR中[MobileNetV3骨干网络](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/ppocr/modeling/backbones/rec_mobilenet_v3.py)的改动。
#### Q2.3.2文本识别训练不加LSTM是否可以收敛
**A**理论上是可以收敛的加上LSTM模块主要是为了挖掘文字之间的序列关系提升识别效果。对于有明显上下文语义的场景效果会比较明显。
#### Q2.3.3文本识别中LSTM和GRU如何选择
**A**从项目实践经验来看序列模块采用LSTM的识别效果优于GRU但是LSTM的计算量比GRU大一些可以根据自己实际情况选择。
#### Q2.3.4对于CRNN模型backbone采用DenseNet和ResNet_vd哪种网络结构更好
**A**Backbone的识别效果在CRNN模型上的效果与Imagenet 1000 图像分类任务上识别效果和效率一致。在图像分类任务上ResnNet_vd79%+的识别精度明显优于DenseNet77%+此外对于GPUNvidia针对ResNet系列模型做了优化预测效率更高所以相对而言resnet_vd是较好选择。如果是移动端可以优先考虑MobileNetV3系列。
#### Q2.3.5训练识别时如何选择合适的网络输入shape
**A**一般高度采用32最长宽度的选择有两种方法
1统计训练样本图像的宽高比分布。最大宽高比的选取考虑满足80%的训练样本。
2统计训练样本文字数目。最长字符数目的选取考虑满足80%的训练样本。然后中文字符长宽比近似认为是1英文认为31预估一个最长宽度。
#### Q2.3.6:如何识别文字比较长的文本?
**A**:在中文识别模型训练时,并不是采用直接将训练样本缩放到[3,32,320]进行训练而是先等比例缩放图像保证图像高度为32宽度不足320的部分补0宽高比大于10的样本直接丢弃。预测时如果是单张图像预测则按上述操作直接对图像缩放不做宽度320的限制。如果是多张图预测则采用batch方式预测每个batch的宽度动态变换采用这个batch中最长宽度。
### 预测部署
#### Q2.4.1:请问对于图片中的密集文字,有什么好的处理办法吗?
**A**可以先试用预训练模型测试一下例如DB+CRNN判断下密集文字图片中是检测还是识别的问题然后针对性的改善。还有一种是如果图象中密集文字较小可以尝试增大图像分辨率对图像进行一定范围内的拉伸将文字稀疏化提高识别效果。
#### Q2.4.2:对于一些在识别时稍微模糊的文本,有没有一些图像增强的方式?
**A**在人类肉眼可以识别的前提下可以考虑图像处理中的均值滤波、中值滤波或者高斯滤波等模糊算子尝试。也可以尝试从数据扩增扰动来强化模型鲁棒性另外新的思路有对抗性训练和超分SR思路可以尝试借鉴。但目前业界尚无普遍认可的最优方案建议优先在数据采集阶段增加一些限制提升图片质量。
#### Q2.4.3:对于特定文字检测,例如身份证只检测姓名,检测指定区域文字更好,还是检测全部区域再筛选更好?
**A**:两个角度来说明一般检测全部区域再筛选更好。
1由于特定文字和非特定文字之间的视觉特征并没有很强的区分行只检测指定区域容易造成特定文字漏检。
2产品的需求可能是变化的不排除后续对于模型需求变化的可能性比如又需要增加一个字段相比于训练模型后处理的逻辑会更容易调整。
#### Q2.4.4对于小白如何快速入门中文OCR项目实践
**A**建议可以先了解OCR方向的基础知识大概了解基础的检测和识别模型算法。然后在Github上可以查看OCR方向相关的repo。目前来看从内容的完备性来看PaddleOCR的中英文双语教程文档是有明显优势的在数据集、模型训练、预测部署文档详实可以快速入手。而且还有微信用户群答疑非常适合学习实践。项目地址[PaddleOCR](https://github.com/PaddlePaddle/PaddleOCR)
#### Q2.4.5:如何识别带空格的英文行文本图像?
**A**:空格识别可以考虑以下两种方案:
(1)优化文本检测算法。检测结果在空格处将文本断开。这种方案在检测数据标注时,需要将含有空格的文本行分成好多段。
(2)优化文本识别算法。在识别字典里面引入空格字符,然后在识别的训练数据中,如果用空行,进行标注。此外,合成数据时,通过拼接训练数据,生成含有空格的文本。
#### Q2.4.6:中英文一起识别时也可以加空格字符来训练吗
**A**:中文识别可以加空格当做分隔符训练,具体的效果如何没法给出直接评判,根据实际业务数据训练来判断。
#### Q2.4.7:低像素文字或者字号比较小的文字有什么超分辨率方法吗
**A**超分辨率方法分为传统方法和基于深度学习的方法。基于深度学习的方法中比较经典的有SRCNN另外CVPR2020也有一篇超分辨率的工作可以参考Unpaired Image Super-Resolution using Pseudo-Supervision但是没有充分的实践验证过需要看实际场景下的效果。
#### Q2.4.8:表格识别有什么好的模型 或者论文推荐么
**A**:表格目前学术界比较成熟的解决方案不多 ,可以尝试下分割的论文方案。
## 【实战篇】PaddleOCR实战问题
### 使用咨询
#### Q3.1.1OSError [WinError 126] 找不到指定的模块。mac pro python 3.4 shapely import 问题
**A**这个问题是因为shapely库安装有误可以参考 [#212](https://github.com/PaddlePaddle/PaddleOCR/issues/212) 这个issue重新安装一下
#### Q3.1.2安装了paddle-gpu运行时提示没有安装gpu版本的paddle可能是什么原因?
**A**用户同时安装了paddle cpu和gpu版本都删掉之后重新安装gpu版本的padle就好了
#### Q3.1.3试用报错Cannot load cudnn shared library是什么原因呢
**A**需要把cudnn lib添加到LD_LIBRARY_PATH中去。
#### Q3.1.4PaddlePaddle怎么指定GPU运行 os.environ["CUDA_VISIBLE_DEVICES"]这种不生效
**A**:通过设置 export CUDA_VISIBLE_DEVICES='0'环境变量
#### Q3.1.5windows下训练没有问题aistudio中提示数据路径有问题
**A**:需要把`\`改为`/`windows和linux的文件夹分隔符不一样windows下的是`\`linux下是`/`
#### Q3.1.6gpu版的paddle虽然能在cpu上运行但是必须要有gpu设备
**A**export CUDA_VISIBLE_DEVICES=''CPU是可以正常跑的
#### Q3.1.7预测报错ImportError dlopen cannot load any more object with static TLS
**A**glibc的版本问题运行需要glibc的版本号大于2.23。
#### Q3.1.8提供的inference model和预训练模型的区别
**A**inference model为固化模型文件中包含网络结构和网络参数多用于预测部署。预训练模型是训练过程中保存好的模型多用于fine-tune训练或者断点训练。
#### Q3.1.9:模型的解码部分有后处理?
**A**有的检测的后处理在ppocr/postprocess路径下识别的后处理均在ppocr/utils/character.py文件内
#### Q3.1.10PaddleOCR中文模型是否支持数字识别
**A**支持的可以看下ppocr/utils/ppocr_keys_v1.txt 这个文件,是支持的识别字符列表,其中包含了数字识别。
#### Q3.1.11PaddleOCR如何做到横排和竖排同时支持的
**A**合成了一批竖排文字逆时针旋转90度后加入训练集与横排一起训练。预测时根据图片长款比判断是否为竖排若为竖排则将crop出的文本逆时针旋转90度后送入识别网络。
#### Q3.1.12:如何获取检测文本框的坐标?
**A**文本检测的结果有box和文本信息, 具体 [参考代码](https://github.com/PaddlePaddle/PaddleOCR/blob/9d33e36df550762b204d5fbfd7977a25e31b2c44/tools/infer/predict_system.py#L13)
#### Q3.1.13:识别模型框出来的位置太紧凑,会丢失边缘的文字信息,导致识别错误
**A** 可以在命令中加入 --det_db_unclip_ratio ,参数[定义位置](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/tools/infer/utility.py#L49)这个参数是检测后处理时控制文本框大小的默认2.0可以尝试改成2.5或者更大
,反之,如果觉得文本框不够紧凑,也可以把该参数调小。
#### Q3.1.14:英文手写体识别有计划提供的预训练模型吗?
**A**近期也在开展需求调研如果企业用户需求较多我们会考虑增加相应的研发投入后续提供对应的预训练模型如果有需求欢迎通过issue或者加入微信群联系我们。
#### Q3.1.17超轻量模型和通用OCR模型的区别
**A**:理论上只要有相应的数据集,都是可以的。当然手写识别毕竟和印刷体有区别,对应训练调优策略可能需要适配性优化。
#### Q3.1.16PaddleOCR的算法可以用于手写文字检测识别吗?后续有计划推出手写预训练模型么?
PaddleOCR已完成Windows和Mac系统适配并且python预测支持使用pip包安装。运行时注意两点1、在[快速安装](./installation.md)时如果不想安装docker可跳过第一步直接从第二步安装paddle开始。2、inference模型下载时如果没有安装wget可直接点击模型链接或将链接地址复制到浏览器进行下载并解压放置到相应目录。
#### Q3.1.15PaddleOCR是否支持在Windows或Mac系统上运行
**A**目前PaddleOCR开源了2个中文模型分别是8.6M超轻量中文模型和通用中文OCR模型。两者对比信息如下
2020-06-08 12:48:13 +08:00
- 相同点:两者使用相同的**算法**和**训练数据**
2020-06-08 13:51:48 +08:00
- 不同点:不同之处在于**骨干网络**和**通道参数**超轻量模型使用MobileNetV3作为骨干网络通用模型使用Resnet50_vd作为检测模型backboneResnet34_vd作为识别模型backbone具体参数差异可对比两种模型训练的配置文件.
2020-06-08 12:48:13 +08:00
|模型|骨干网络|检测训练配置|识别训练配置|
|-|-|-|-|
|8.6M超轻量中文OCR模型|MobileNetV3+MobileNetV3|det_mv3_db.yml|rec_chinese_lite_train.yml|
|通用中文OCR模型|Resnet50_vd+Resnet34_vd|det_r50_vd_db.yml|rec_chinese_common_train.yml|
2020-08-26 16:43:41 +08:00
#### Q3.1.18:是否有计划开源仅识别数字或仅识别英文+数字的模型
**A**目前主要是开源通用类OCR模型暂不计划开源小垂类专用模型。PaddleOCR开源了多种检测、识别算法供用户自定义训练两种中文模型也是基于开源的算法库训练产出有小垂类需求的小伙伴可以按照教程准备好数据选择合适的配置文件自行训练相信能有不错的效果。训练有任何问题欢迎提issue或在交流群提问我们会及时解答。
2020-06-08 12:48:13 +08:00
2020-08-26 16:43:41 +08:00
### 数据集
#### Q3.2.1如何制作PaddleOCR支持的数据格式
**A**:可以参考检测与识别训练文档,里面有数据格式详细介绍。[检测文档](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/detection.md)[识别文档](https//github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/recognition.md)
#### Q3.2.2:请问一下,如果想用预训练模型,但是我的数据里面又出现了预训练模型字符集中没有的字符,新的字符是在字符集前面添加还是在后面添加?
**A**在后面添加修改dict之后就改变了模型最后一层fc的结构之前训练到的参数没有用到相当于从头训练因此acc是0。
#### Q3.2.3:如何调试数据读取程序?
**A**tools/train.py中有一个test_reader()函数用于调试数据读取。
#### Q3.2.4:开源模型使用的训练数据是什么,能否开源?
**A**:目前开源的模型,数据集和量级如下:
2020-06-08 12:48:13 +08:00
- 检测:
英文数据集ICDAR2015
中文数据集LSVT街景数据集训练数据3w张图片
- 识别:
英文数据集MJSynth和SynthText合成数据数据量上千万。
2020-06-24 18:27:40 +08:00
中文数据集LSVT街景数据集根据真值将图crop出来并进行位置校准总共30w张图像。此外基于LSVT的语料合成数据500w。
其中,公开数据集都是开源的,用户可自行搜索下载,也可参考[中文数据集](./datasets.md),合成数据暂不开源,用户可使用开源合成工具自行合成,可参考的合成工具包括[text_renderer](https://github.com/Sanster/text_renderer)、[SynthText](https://github.com/ankush-me/SynthText)、[TextRecognitionDataGenerator](https://github.com/Belval/TextRecognitionDataGenerator)等。
2020-06-11 11:15:34 +08:00
2020-08-26 16:43:41 +08:00
#### Q3.2.5:请问中文字符集多大呢?支持生僻字识别吗?
**A**中文字符集是6623 支持生僻字识别。训练样本中有部分生僻字但样本不多如果有特殊需求建议使用自己的数据集做fine-tune。
#### Q3.2.6:中文文本检测、文本识别构建训练集的话,大概需要多少数据量
**A**检测需要的数据相对较少在PaddleOCR模型的基础上进行Fine-tune一般需要500张可达到不错的效果。
识别分英文和中文,一般英文场景需要几十万数据可达到不错的效果,中文则需要几百万甚至更多。
#### Q3.2.7:中文识别模型如何选择?
**A**中文模型共有2大类通用模型和超轻量模型。他们各自的优势如下
超轻量模型具有更小的模型大小,更快的预测速度。适合用于端侧使用。
通用模型具有更高的模型精度,适合对模型大小不敏感的场景。
此外基于以上模型PaddleOCR还提供了支持空格识别的模型主要针对中文场景中的英文句子。
您可以根据实际使用需求进行选择。
#### Q3.2.8图像旋转90° 文本检测可以正常检测到具体文本位置,但是识别准确度大幅降低,是否会考虑增加相应的旋转预处理?
**A**:目前模型只支持两种方向的文字:水平和垂直。 为了降低模型大小加快模型预测速度PaddleOCR暂时没有加入图片的方向判断。建议用户在识别前自行转正后期也会考虑添加选择角度判断。
#### Q3.2.9同一张图通用检测出21个条目轻量级检测出26个 ,难道不是轻量级的好吗?
**A**:可以主要参考可视化效果,通用模型更倾向于检测一整行文字,轻量级可能会有一行文字被分成两段检测的情况,不是数量越多,效果就越好。
### 模型训练
调优
#### Q3.3.1文本长度超过25应该怎么处理
**A**默认训练时的文本可识别的最大长度为25超过25的文本会被忽略不参与训练。如果您训练样本中的长文本较多可以修改配置文件中的 max\_text\_length 字段,设置为更大的最长文本长度,具体位置在[这里](https://github.com/PaddlePaddle/PaddleOCR/blob/fb9e47b262529386983edc21b33abfa16bbf06ac/configs/rec/rec_chinese_lite_train.yml#L13)。
#### Q3.3.2:配置文件里面检测的阈值设置么?
**A**:有的,检测相关的参数主要有以下几个:
``max_side_len预测时图像resize的长边尺寸
thresh: 用于二值化输出图的阈值
box_thresh:用于过滤文本框的阈值,低于此阈值的文本框不要
unclip_ratio: 文本框扩张的系数,关系到文本框的大小``
这些参数的默认值见[代码](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/tools/infer/utility.py#L40),可以通过从命令行传递参数进行修改。
#### Q3.3.3我想请教一下你们在训练识别时候lsvt里的非矩形框文字你们是怎么做处理的呢。忽略掉还是去最小旋转框
**A**:现在是忽略处理的
#### Q3.3.4训练过程中如何恰当的停止训练直接kill经常还有显存占用的问题
**A**可以通过下面的脚本终止所有包含train.py字段的进程ps -axu | grep train.py | awk '{print $2}' | xargs kill -9
#### Q3.3.5读数据进程数设置4~8时训练一会进程接连defunct后gpu利用率一直为0卡死
**A**:修改多进程的队列数后解决, 将[代码段]( https://github.com/PaddlePaddle/PaddleOCR/blob/549108fe0aa0d87c0a3b2d471f1c653e89daab80/ppocr/data/reader_main.py#L75 ) 修改为:
```
return paddle.reader.multiprocess_reader(readers, False, queue_size=320)
```
#### Q3.3.6可不可以将pretrain_weights设置为空呢想从零开始训练一个model
**A**这个是可以的在训练通用识别模型的时候pretrain_weights就设置为空但是这样可能需要更长的迭代轮数才能达到相同的精度。
#### Q3.3.7PaddleOCR默认不是200个step保存一次模型吗为啥文件夹下面都没有生成
**A**eval_batch_step [4000, 5000]改为[0, 5000] 就是从第0次迭代开始每5000迭代保存一次模型
#### Q3.3.8:如何进行模型微调?
**A**注意配置好匹配的数据集合适然后在finetune训练时可以加载我们提供的预训练模型设置配置文件中Global.pretrain_weights 参数为要加载的预训练模型路径。
#### Q3.3.9:文本检测换成自己的数据没法训练,有一些”###”是什么意思?
**A**:数据格式有问题,”###” 表示要被忽略的文本区域,所以你的数据都被跳过了,可以换成其他任意字符或者就写个空的。
#### Q3.3.10copy_from_cpu这个地方这块input不变(t_data的size不变)连续调用两次copy_from_cpu()时这里面的gpu_place会重新malloc GPU内存吗还是只有当ele_size变化时才会重新在GPU上malloc呢
**A**:小于等于的时候都不会重新分配,只有大于的时候才会重新分配
#### Q3.3.11自己训练出来的未inference转换的模型 可以当作预训练模型吗?
**A**:可以的,但是如果训练数据两量少的话,可能会过拟合到少量数据上,泛化性能不佳。
#### Q3.3.13使用带TPS的识别模型预测报错
**A**直接更换配置文件里的Backbone.function即可格式为网络文件路径,网络Class名词。如果所需的backbone在PaddleOCR里没有提供可以参照PaddleClas里面的网络结构进行修改尝试。具体修改原则可以参考OCR通用问题中 "如何更换文本检测/识别的backbone" 的回答。
#### Q3.3.12:如何更换文本检测/识别的backbone
**A**:报错信息:'''Input(X) dims[3] and Input(Grid) dims[2] should be equal, but received X dimension[3](320) != Grid dimension[2](100)
**A**TPS模块暂时无法支持变长的输入请设置 --rec_image_shape='3,32,100' --rec_char_type='en' 固定输入shape
### 预测部署
#### Q3.4.1如何pip安装opt模型转换工具
**A**由于OCR端侧部署需要某些算子的支持这些算子仅在Paddle-Lite 最新develop分支中所以需要自己编译opt模型转换工具。opt工具可以通过编译PaddleLite获得编译步骤参考https://github.com/PaddlePaddle/PaddleOCR/blob/0791714b91/deploy/lite/readme.md 中2.1 模型优化部分。
#### Q3.4.2如何将PaddleOCR预测模型封装成SDK
**A**如果是Python的话可以使用tools/infer/predict_system.py中的TextSystem进行sdk封装如果是c++的话可以使用deploy/cpp_infer/src下面的DBDetector和CRNNRecognizer完成封装
#### Q3.4.3:服务部署可以只发布 文本识别模型么?(不带文本检测模型)
**A**可以的。默认的服务部署是检测和识别串联预测的。也支持单独发布文本检测或文本识别模型比如使用PaddleHUBPaddleOCR 模型时deploy下有三个文件夹分别是
ocr_det检测预测
ocr_rec: 识别预测
ocr_system: 检测识别串联预测
每个模块是单独分开的所以可以选择只发布文本识别模型。使用PaddleServing部署时同理。
#### Q3.4.4为什么PaddleOCR检测预测是只支持一张图片测试即test_batch_size_per_card=1
**A**测试的时候对图像等比例缩放最长边960不同图像等比例缩放后长宽不一致无法组成batch所以设置为test_batch_size为1。
#### Q3.4.5为什么使用c++ inference和py inference结果不一致
**A**可能是导出的inference model版本与预测库版本需要保持一致比如在Windows下Paddle官网提供的预测库版本是1.8而PaddleOCR提供的inference model 版本是1.7因此最终预测结果会有差别。可以在Paddle1.8环境下导出模型,再基于该模型进行预测。
此外也需要保证两者的预测参数配置完全一致。
#### Q3.4.6:为什么第一张张图预测时间很长,第二张之后预测时间会降低?
**A**:第一张图需要初始化,耗时较多。完成模型加载后,之后的预测时间很短。
2020-08-26 17:17:07 +08:00
#### Q3.4.7请问opt工具可以直接转int8量化后的模型为.nb文件吗
2020-08-26 16:43:41 +08:00
**A**有的PaddleLite提供完善的opt工具可以参考[文档](https://paddle-lite.readthedocs.io/zh/latest/user_guides/post_quant_with_data.html)
#### Q3.4.8:请问在安卓端怎么设置这个参数 --det_db_unclip_ratio=3
**A**在安卓APK上无法设置没有暴露这个接口如果使用的是PaddledOCR/deploy/lite/的demo可以修改config.txt中的对应参数来设置
#### Q3.4.9PaddleOCR模型是否可以转换成ONNX模型?
**A**目前不支持转ONNX
2020-08-26 17:17:07 +08:00
#### Q3.4.10使用opt工具对检测模型转换时报错 can not found op arguments for node conv2_b_attr
2020-08-26 16:43:41 +08:00
**A**这个问题大概率是编译opt工具的Paddle-Lite不是develop分支建议使用Paddle-Lite 的develop分支编译opt工具。
#### Q3.4.11libopenblas.so找不到是什么意思
**A**目前包括mkl和openblas两种版本的预测库推荐使用mkl的预测库如果下载的预测库是mkl的编译的时候也需要勾选`with_mkl`选项
以Linux下编译为例需要在设置这里为ON`-DWITH_MKL=ON`[参考链接](https://github.com/PaddlePaddle/PaddleOCR/blob/8a78af26df0dd8f15b734cc8db13e25d2a3656a2/deploy/cpp_infer/tools/build.sh#L12)。此外使用预测库时推荐在Linux或者Windows上进行开发不推荐在MacOS上开发。
#### Q3.4.12使用自定义字典训练inference时如何修改
**A**使用了自定义字典的话用inference预测时需要通过 --rec_char_dict_path 修改字典路径。详细操作可参考[文档](https://github.com/PaddlePaddle/PaddleOCR/blob/develop/doc/doc_ch/inference.md#%E8%87%AA%E5%AE%9A%E4%B9%89%E6%96%87%E6%9C%AC%E8%AF%86%E5%88%AB%E5%AD%97%E5%85%B8%E7%9A%84%E6%8E%A8%E7%90%86)
#### Q3.4.13:能否返回单字字符的位置?
2020-06-16 12:55:27 +08:00
2020-08-26 16:43:41 +08:00
**A**:训练的时候标注是整个文本行的标注,所以预测的也是文本行位置,如果要获取单字符位置信息,可以根据预测的文本,计算字符数量,再去根据整个文本行的位置信息,估计文本块中每个字符的位置。
2020-07-12 11:21:25 +08:00
2020-08-26 17:17:07 +08:00
#### Q3.4.16PaddleOCR模型部署方式有哪几种
2020-08-26 16:43:41 +08:00
**A**目前有Inference部署serving部署和手机端Paddle Lite部署可根据不同场景做灵活的选择Inference部署适用于本地离线部署serving部署适用于云端部署Paddle Lite部署适用于手机端集成。