PaddleOCR/docs/module_usage/text_detection.md
zhang-prog 2357c63a9a
add new docs (pipelines, modules, legacy) (#15096)
* add ocr doc

* add docs

* fix

* add pipeline docs

* add module docs

* update the descriptions of parameters

* update

* update the description of  predict_iter

* update

* delete 2.2python脚本

* add char_recognition and region_detection

* modify in predict

* remove redundant 2.2 Python scripts

* modify use_wired_table_cells_trans_to_html

* add use_chart_recognition and use_region_detection

* add information

* add use_orc_model

* add legacy docs

* update

---------

Co-authored-by: guoshengjian <guoshengjian@baidu.com>
2025-05-18 21:09:53 +08:00

15 KiB
Raw Blame History

comments
comments
true

文本检测模块使用教程

一、概述

文本检测模块是OCR光学字符识别系统中的关键组成部分负责在图像中定位和标记出包含文本的区域。该模块的性能直接影响到整个OCR系统的准确性和效率。文本检测模块通常会输出文本区域的边界框Bounding Boxes这些边界框将作为输入传递给文本识别模块进行后续处理。

二、支持模型列表

模型模型下载链接 检测Hmean% GPU推理耗时ms
[常规模式 / 高性能模式]
CPU推理耗时ms
[常规模式 / 高性能模式]
模型存储大小M) 介绍
PP-OCRv4_server_det推理模型/训练模型 82.56 83.34 / 80.91 442.58 / 442.58 109 PP-OCRv4 的服务端文本检测模型,精度更高,适合在性能较好的服务器上部署
PP-OCRv4_mobile_det推理模型/训练模型 77.35 8.79 / 3.13 51.00 / 28.58 4.7 PP-OCRv4 的移动端文本检测模型,效率更高,适合在端侧设备部署
PP-OCRv3_mobile_det推理模型/训练模型 78.68 8.44 / 2.91 27.87 / 27.87 2.1 PP-OCRv3 的移动端文本检测模型,效率更高,适合在端侧设备部署
PP-OCRv3_server_det推理模型/训练模型 80.11 65.41 / 13.67 305.07 / 305.07 102.1 PP-OCRv3 的服务端文本检测模型,精度更高,适合在性能较好的服务器上部署

测试环境说明:

  • 性能测试环境
    • 测试数据集:PaddleOCR 自建的中英文数据集,覆盖街景、网图、文档、手写多个场景,其中文本检测包含 593 张图片。
    • 硬件配置:
      • GPUNVIDIA Tesla T4
      • CPUIntel Xeon Gold 6271C @ 2.60GHz
      • 其他环境Ubuntu 20.04 / cuDNN 8.6 / TensorRT 8.5.2.2
  • 推理模式说明
模式 GPU配置 CPU配置 加速技术组合
常规模式 FP32精度 / 无TRT加速 FP32精度 / 8线程 PaddleInference
高性能模式 选择先验精度类型和加速策略的最优组合 FP32精度 / 8线程 选择先验最优后端Paddle/OpenVINO/TRT等

三、快速开始

在快速开始前,请先安装 PaddleOCR 的 wheel 包,详细请参考 安装教程

使用一行命令即可快速体验:

paddleocr text_detection -i https://paddle-model-ecology.bj.bcebos.com/paddlex/imgs/demo_image/general_ocr_001.png

您也可以将文本检测的模块中的模型推理集成到您的项目中。运行以下代码前,请您下载示例图片到本地。

from paddleocr import TextDetection
model = TextDetection(model_name="PP-OCRv4_mobile_det")
output = model.predict("general_ocr_001.png", batch_size=1)
for res in output:
    res.print()
    res.save_to_img(save_path="./output/")
    res.save_to_json(save_path="./output/res.json")

运行后,得到的结果为:

{'res': {'input_path': 'general_ocr_001.png', 'page_index': None, 'dt_polys': array([[[ 73, 553],
        ...,
        [ 74, 585]],

       ...,

       [[ 41, 413],
        ...,
        [ 43, 453]]], dtype=int16), 'dt_scores': [0.7556245964900372, 0.701596019903398, 0.883855323880584, 0.8123647151167767]}}

运行结果参数含义如下:

  • input_path:表示输入待预测图像的路径
  • page_index如果输入是PDF文件则表示当前是PDF的第几页否则为 None
  • dt_polys表示预测的文本检测框其中每个文本检测框包含一个四边形的四个顶点。其中每个顶点都是一个列表分别表示该顶点的x坐标和y坐标
  • dt_scores:表示预测的文本检测框的置信度

可视化图片如下:

相关方法、参数等说明如下:

  • TextDetection实例化文本检测模型(此处以PP-OCRv4_mobile_det为例),具体说明如下:
参数 参数说明 参数类型 可选项 默认值
model_name 模型名称 str 所有PaddleX支持的文本检测模型名称
model_dir 模型存储路径 str
device 模型推理设备 str 支持指定GPU具体卡号如“gpu:0”其他硬件具体卡号如“npu:0”CPU如“cpu”。 gpu:0
limit_side_len 检测的图像边长限制 int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
None
limit_type 检测的图像边长限制,检测的边长限制类型 str/None
  • str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
  • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
None
thresh 输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
None
box_thresh 检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
None
unclip_ratio Vatti clipping算法的扩张系数使用该方法对文字区域进行扩张 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值
None
use_hpip 是否启用高性能推理插件 bool False
hpi_config 高性能推理配置 dict | None None
  • 其中,model_name 必须指定,指定 model_name 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 model_dir 时,使用用户自定义的模型。

  • 调用文本检测模型的 predict() 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 predict_iter() 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 predict_iter() 返回的是一个 generator,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。predict() 方法参数有 inputbatch_sizelimit_side_lenlimit_typethreshbox_threshmax_candidatesunclip_ratiouse_dilation,具体说明如下:

参数 参数说明 参数类型 可选项 默认值
input 待预测数据,支持多种输入类型 Python Var/str/dict/list
  • Python变量,如numpy.ndarray表示的图像数据
  • 文件路径,如图像文件的本地路径:/root/data/img.jpg
  • URL链接如图像文件的网络URL示例
  • 本地目录,该目录下需包含待预测数据文件,如本地路径:/root/data/
  • 列表,列表元素需为上述类型数据,如[numpy.ndarray, numpy.ndarray]["/root/data/img1.jpg", "/root/data/img2.jpg"]["/root/data1", "/root/data2"]
batch_size 批大小 int 大于0的任意整数 1
limit_side_len 检测的图像边长限制 int/None
  • int: 大于0的任意整数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
limit_type 检测的图像边长限制,检测的边长限制类型 str/None
  • str: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
thresh 输出的概率图中,得分大于该阈值的像素点才会被认为是文字像素点 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
box_thresh 检测结果边框内,所有像素点的平均得分大于该阈值时,该结果会被认为是文字区域 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
unclip_ratio Vatti clipping算法的扩张系数使用该方法对文字区域进行扩张 float/None
  • float: 大于0的任意浮点数
  • None: 如果设置为None, 将默认使用模型初始化的该参数值
None
  • 对预测结果进行处理每个样本的预测结果均为对应的Result对象且支持打印、保存为图片、保存为json文件的操作:
方法 方法说明 参数 参数类型 参数说明 默认值
print() 打印结果到终端 format_json bool 是否对输出内容进行使用 JSON 缩进格式化 True
indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
save_to_json() 将结果保存为json格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
indent int 指定缩进级别,以美化输出的 JSON 数据,使其更具可读性,仅当 format_jsonTrue 时有效 4
ensure_ascii bool 控制是否将非 ASCII 字符转义为 Unicode。设置为 True 时,所有非 ASCII 字符将被转义;False 则保留原始字符,仅当format_jsonTrue时有效 False
save_to_img() 将结果保存为图像格式的文件 save_path str 保存的文件路径,当为目录时,保存文件命名与输入文件类型命名一致
  • 此外,也支持通过属性获取带结果的可视化图像和预测结果,具体如下:
属性 属性说明
json 获取预测的json格式的结果
img 获取格式为dict的可视化图像

四、二次开发

......