* remove PaddleX

* remove invalid link

* remove PaddleX

* fix doc

* remove PaddleX
This commit is contained in:
Tingquan Gao 2025-05-20 18:37:15 +08:00 committed by GitHub
parent 8b9da19460
commit 95f7eba687
No known key found for this signature in database
GPG Key ID: B5690EEEBB952194
16 changed files with 39 additions and 150 deletions

View File

@ -307,7 +307,6 @@ The above data is from:
* Paddle 3.0
* PaddleOCR 3.0.0
* PaddleX 3.0.0
* MinerU 1.3.10
* CUDA 11.8
* cuDNN 8.9
@ -518,14 +517,14 @@ Use default configuration.
<td>Success Number/Total Number</td>
</tr>
<tr">
<tddata-morpho-td-border-index="1" cellindex="0">4卡*1</td>
<td>4 GPUs * 1</td>
<td>4</td>
<td>1.69</td>
<td>2.36</td>
<td>1</td>
</tr>
<tr">
<td>4卡*4</td>
<td>4 GPUs * 4</td>
<td>16</td>
<td>4.05</td>
<td>3.87</td>

View File

@ -307,7 +307,6 @@
* Paddle 3.0正式版
* PaddleOCR 3.0.0正式版
* PaddleX 3.0.0正式版
* MinerU 1.3.10
* CUDA 11.8
* cuDNN 8.9
@ -315,98 +314,6 @@
## 3.2 测试数据
1. 本地推理
<table>
<colgroup>
<col>
</colgroup>
<tbody>
<tr>
<td></td>
<td>Pipeline Configurations</td>
<td>Average time per page (s)</td>
<td>Average CPU (%)</td>
<td>Peak RAM Usage (MB)</td>
<td>Average RAM Usage (MB)</td>
<td>Average GPU (%)</td>
<td>Peak VRAM Usage (MB)</td>
<td>Average VRAM Usage (MB)</td>
</tr>
<tr>
<td rowspan="6">PP-StructureV3</td>
<td>Basic</td>
<td>1.77</td>
<td>111.4</td>
<td>6822.4</td>
<td>5278.2</td>
<td>38.9</td>
<td>17403</td>
<td>16909.3</td>
</tr>
<tr>
<td>Use chart recognition pipeline</td>
<td>4.09</td>
<td>105.3</td>
<td>5628</td>
<td>4085.1</td>
<td>24.7</td>
<td>17403</td>
<td>17030.9</td>
</tr>
<tr>
<td>Use PP-OCRv5_mobile_det + PP-OCRv5_mobile_rec</td>
<td>1.56</td>
<td>113.7</td>
<td>6712.9</td>
<td>5052</td>
<td>29.1</td>
<td>10929</td>
<td>10840.7</td>
</tr>
<tr>
<td>Use PP-FormulaNet_plus-M</td>
<td>1.42</td>
<td>112.9</td>
<td>6944.1</td>
<td>5193.6</td>
<td>38</td>
<td>16390</td>
<td>15840</td>
</tr>
<tr>
<td>Use PP-OCRv5_mobile_det + PP-OCRv5_mobile_rec + PP-FormulaNet_plus-M</td>
<td>1.15</td>
<td>114.8</td>
<td>6666.5</td>
<td>5105.4</td>
<td>26.1</td>
<td>8606</td>
<td>8517.2</td>
</tr>
<tr>
<td>Use PP-OCRv5_mobile_det + PP-OCRv5_mobile_rec + PP-FormulaNet_plus-M, and max input length of text detection set to 1200</td>
<td>0.99</td>
<td>113</td>
<td>7172.9</td>
<td>5686.4</td>
<td>29.2</td>
<td>8776</td>
<td>8680.8</td>
</tr>
<tr>
<td>MinerU</td>
<td>-</td>
<td>1.57</td>
<td>142.9</td>
<td>13655.8</td>
<td>12083</td>
<td>43.3</td>
<td>32406</td>
<td>9915.4</td>
</tr>
</tbody>
</table>
测试硬件NVIDIA Tesla V100 + Intel Xeon Gold 6271C
<table style="width:585pt">
@ -601,14 +508,14 @@
<table>
<tbody>
<tr>
<td>Instances Number</td>
<td>Concurrent Requests Number</td>
<td>Throughput</td>
<td>Average Latency (s)</td>
<td>Success Number/Total Number</td>
<td>实例数</td>
<td>并发请求数</td>
<td>吞吐</td>
<td>平均时延s</td>
<td>成功请求数/总请求数</td>
</tr>
<tr">
<tddata-morpho-td-border-index="1" cellindex="0">4卡*1</td>
<td>4卡*1</td>
<td>4</td>
<td>1.69</td>
<td>2.36</td>

View File

@ -168,7 +168,7 @@ for res in output:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用文档图像方向分类模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size`,具体说明如下:

View File

@ -148,7 +148,7 @@ for res in results:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用文档类视觉语言模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size`,具体说明如下:

View File

@ -186,7 +186,7 @@ sudo apt-get install texlive texlive-latex-base texlive-xetex latex-cjk-all texl
<td><code>model_name</code></td>
<td>模型名称</td>
<td><code>str</code></td>
<td>所有PaddleX支持的模型名称</td>
<td>所有支持的模型名称</td>
<td></td>
</tr>
<tr>
@ -219,7 +219,7 @@ sudo apt-get install texlive texlive-latex-base texlive-xetex latex-cjk-all texl
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用公式识别模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size`,具体说明如下:

View File

@ -45,7 +45,7 @@ comments: true
<ul>
<li><b>性能测试环境</b>
<ul>
<li><strong>测试数据集:</strong>PaddleX自建数据集包含500张圆形印章图像。</li>
<li><strong>测试数据集:</strong>自建的内部数据集包含500张圆形印章图像。</li>
<li><strong>硬件配置:</strong>
<ul>
<li>GPUNVIDIA Tesla T4</li>
@ -145,7 +145,7 @@ for res in output:
<td><code>model_name</code></td>
<td>模型名称</td>
<td><code>str</code></td>
<td>所有PaddleX支持的印章文本检测模型名称</td>
<td>所有支持的印章文本检测模型名称</td>
<td></td>
</tr>
<tr>
@ -204,18 +204,6 @@ for res in output:
<ul>
<li><b>float</b>: 大于0的任意浮点数
<li><b>None</b>: 如果设置为None, 将使用默认值0.6</li></li></ul></td>
<td>None</td>
</tr>
<tr>
<td><code>max_candidates</code></td>
<td>输出的最大文本框数量 </td>
<td><code>int/None</code></td>
<td>
<ul>
<li><b>int</b>: 大于0的任意整数
<li><b>None</b>: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值</li></li></ul></td>
<td>None</td>
</tr>
<tr>
@ -226,7 +214,6 @@ for res in output:
<ul>
<li><b>float</b>: 大于0的任意浮点数
<li><b>None</b>: 如果设置为None, 将使用默认值0.5</li></li></ul></td>
<td>None</td>
</tr>
<tr>
@ -252,7 +239,7 @@ for res in output:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用印章文本检测模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size``limit_side_len``limit_type``thresh``box_thresh``max_candidates``unclip_ratio``use_dilation`,具体说明如下:

View File

@ -40,7 +40,7 @@ comments: true
<ul>
<li><b>性能测试环境</b>
<ul>
<li><strong>测试数据集:</strong>PaddleX 内部自建评测集。</li>
<li><strong>测试数据集:</strong>自建的内部评测集。</li>
<li><strong>硬件配置:</strong>
<ul>
<li>GPUNVIDIA Tesla T4</li>
@ -170,7 +170,7 @@ for res in output:
</tr>
<tr>
<td><code>img_size</code></td>
<td>输入图像大小如果不指定将默认使用PaddleX官方模型配置</td>
<td>输入图像大小</td>
<td><code>int/list</code></td>
<td>
<ul>
@ -182,7 +182,7 @@ for res in output:
</tr>
<tr>
<td><code>threshold</code></td>
<td>用于过滤掉低置信度预测结果的阈值如果不指定将默认使用PaddleX官方模型配置。在表格单元格检测任务中,适当降低阈值可能有助于获得更准确的结果</td>
<td>用于过滤掉低置信度预测结果的阈值。在表格单元格检测任务中,适当降低阈值可能有助于获得更准确的结果</td>
<td><code>float/dict</code></td>
<td>
<ul>
@ -194,7 +194,7 @@ for res in output:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用表格单元格检测模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size``threshold`,具体说明如下:
@ -232,7 +232,7 @@ for res in output:
</tr>
<tr>
<td><code>threshold</code></td>
<td>用于过滤掉低置信度预测结果的阈值;如果不指定,将默认使用 <code>creat_model</code> 指定的 <code>threshold</code> 参数,如果 <code>creat_model</code> 也没有指定则默认使用PaddleX官方模型配置</td>
<td>用于过滤掉低置信度预测结果的阈值</td>
<td><code>float/dict</code></td>
<td>
<ul>

View File

@ -32,7 +32,7 @@ comments: true
<ul>
<li><b>性能测试环境</b>
<ul>
<li><strong>测试数据集:</strong>PaddleX 内部自建评测数据集。</li>
<li><strong>测试数据集:</strong>自建的内部评测数据集。</li>
<li><strong>硬件配置:</strong>
<ul>
<li>GPUNVIDIA Tesla T4</li>
@ -158,7 +158,7 @@ for res in output:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用表格分类模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size`,具体说明如下:
@ -270,8 +270,6 @@ for res in output:
</tr>
</table>
关于更多 PaddleX 的单模型推理的 API 的使用方法,可以参考[PaddleX单模型Python脚本使用说明](../../instructions/model_python_API.md)。
## 四、二次开发
由于 PaddleOCR 并不直接提供表格分类模块的训练,因此,如果需要训练表格分类模型,可以参考 [PaddleX 表格分类模块二次开发](https://paddlepaddle.github.io/PaddleX/latest/module_usage/tutorials/ocr_modules/table_classification.html#_4)部分进行训练。训练后的模型可以无缝集成到 PaddleOCR 的 API 中进行推理。

View File

@ -56,7 +56,7 @@ comments: true
<ul>
<li><b>性能测试环境</b>
<ul>
<li><strong>测试数据集:</strong>PaddleX 内部自建高难度中文表格识别数据集。</li>
<li><strong>测试数据集:</strong>内部自建高难度中文表格识别数据集。</li>
<li><strong>硬件配置:</strong>
<ul>
<li>GPUNVIDIA Tesla T4</li>
@ -147,7 +147,7 @@ for res in output:
<td><code>model_name</code></td>
<td>模型名称</td>
<td><code>str</code></td>
<td>所有PaddleX支持的模型名称</td>
<td>所有支持的模型名称</td>
<td></td>
</tr>
<tr>
@ -180,7 +180,7 @@ for res in output:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用表格结构识别模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size`,具体说明如下:

View File

@ -163,7 +163,7 @@ for res in output:
<td><code>model_name</code></td>
<td>模型名称</td>
<td><code>str</code></td>
<td>所有PaddleX支持的文本检测模型名称</td>
<td>所有支持的文本检测模型名称</td>
<td></td>
</tr>
<tr>
@ -186,8 +186,7 @@ for res in output:
<td><code>int/None</code></td>
<td>
<ul>
<li><b>int</b>: 大于0的任意整数
<li><b>None</b>: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值</li></li></ul></td>
<li><b>int</b>: 大于0的任意整数</li></ul></td>
<td>None</td>
</tr>
@ -197,8 +196,7 @@ for res in output:
<td><code>str/None</code></td>
<td>
<ul>
<li><b>str</b>: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len
<li><b>None</b>: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值</li></li></ul></td>
<li><b>str</b>: 支持min和max. min表示保证图像最短边不小于det_limit_side_len, max: 表示保证图像最长边不大于limit_side_len。</li></ul></td>
<td>None</td>
@ -210,7 +208,7 @@ for res in output:
<td>
<ul>
<li><b>float</b>: 大于0的任意浮点数
<li><b>None</b>: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值</li></li></ul></td>
</li></ul></td>
<td>None</td>
</tr>
@ -221,7 +219,7 @@ for res in output:
<td>
<ul>
<li><b>float</b>: 大于0的任意浮点数
<li><b>None</b>: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值</li></li></ul></td>
</li></ul></td>
<td>None</td>
</tr>
@ -232,7 +230,7 @@ for res in output:
<td>
<ul>
<li><b>float</b>: 大于0的任意浮点数
<li><b>None</b>: 如果设置为None, 将默认使用PaddleX官方模型配置中的该参数值</li></li></ul></td>
</li></ul></td>
<td>None</td>
</tr>

View File

@ -127,7 +127,7 @@ for res in output:
<td><code>model_name</code></td>
<td>模型名称</td>
<td><code>str</code></td>
<td>所有PaddleX支持的模型名称</td>
<td>所有支持的模型名称</td>
<td></td>
</tr>
<tr>
@ -160,7 +160,7 @@ for res in output:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用图像矫正模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size`,具体说明如下:

View File

@ -168,7 +168,7 @@ for res in output:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用文本行方向分类模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size`,具体说明如下:

View File

@ -452,7 +452,7 @@ for res in output:
<td><code>model_name</code></td>
<td>模型名称</td>
<td><code>str</code></td>
<td>所有PaddleX支持的模型名称</td>
<td>所有支持的模型名称</td>
<td></td>
</tr>
<tr>
@ -485,7 +485,7 @@ for res in output:
</tr>
</table>
* 其中,`model_name` 必须指定,指定 `model_name` 后,默认使用 PaddleX 内置的模型参数,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 其中,`model_name` 必须指定,在此基础上,指定 `model_dir` 时,使用用户自定义的模型。
* 调用文本识别模型的 `predict()` 方法进行推理预测,该方法会返回一个结果列表。另外,本模块还提供了 `predict_iter()` 方法。两者在参数接受和结果返回方面是完全一致的,区别在于 `predict_iter()` 返回的是一个 `generator`,能够逐步处理和获取预测结果,适合处理大型数据集或希望节省内存的场景。可以根据实际需求选择使用这两种方法中的任意一种。`predict()` 方法参数有 `input``batch_size`,具体说明如下:

View File

@ -5,7 +5,7 @@ PP-ChatOCRv4-doc is a unique document and image intelligent analysis solution fr
<img src="https://github.com/user-attachments/assets/0870cdec-1909-4247-9004-d9efb4ab9635">
The Document Scene Information Extraction v4 pipeline includes modules for **Layout Region Detection**, **Table Structure Recognition**, **Table Classification**, **Table Cell Localization**, **Text Detection**, **Text Recognition**, **Seal Text Detection**, **Text Image Rectification**, and **Document Image Orientation Classification**. The relevant models are integrated as sub-pipelines, and you can view the model configurations of different modules through the [pipeline configuration](../../../../paddlex/configs/pipelines/PP-ChatOCRv4-doc.yaml).
The Document Scene Information Extraction v4 pipeline includes modules for **Layout Region Detection**, **Table Structure Recognition**, **Table Classification**, **Table Cell Localization**, **Text Detection**, **Text Recognition**, **Seal Text Detection**, **Text Image Rectification**, and **Document Image Orientation Classification**.
<b>If you prioritize model accuracy, choose a model with higher accuracy. If you prioritize inference speed, select a model with faster inference. If you prioritize model storage size, choose a model with a smaller storage size.</b> Benchmarks for some models are as follows:

View File

@ -10,7 +10,7 @@ PP-ChatOCRv4 是飞桨特色的文档和图像智能分析解决方案,结合
<img src="https://github.com/user-attachments/assets/0870cdec-1909-4247-9004-d9efb4ab9635">
PP-ChatOCRv4 产线中包含<b>版面区域检测模块</b><b>表格结构识别模块</b><b>表格分类模块</b><b>表格单元格定位模块</b><b>文本检测模块</b><b>文本识别模块</b><b>印章文本检测模块</b><b>文本图像矫正模块</b><b>文档图像方向分类模块</b>其中相关的模型是以子产线的方式集成,您可以通过[产线配置](../../../../paddlex/configs/pipelines/PP-ChatOCRv4-doc.yaml)来查看不同模块的模型配置。
PP-ChatOCRv4 产线中包含<b>版面区域检测模块</b><b>表格结构识别模块</b><b>表格分类模块</b><b>表格单元格定位模块</b><b>文本检测模块</b><b>文本识别模块</b><b>印章文本检测模块</b><b>文本图像矫正模块</b><b>文档图像方向分类模块</b>
<b>PP-ChatOCRv4 产线中包含以下9个模块。每个模块均可独立进行训练和推理并包含多个模型。有关详细信息请点击相应模块以查看文档。</b>

View File

@ -605,7 +605,7 @@ devanagari_PP-OCRv3_mobile_rec_infer.tar">推理模型</a>/<a href="https://padd
<li>ch_SVTRv2_rec<a href="https://aistudio.baidu.com/competition/detail/1131/0/introduction">PaddleOCR算法模型挑战赛 - 赛题一OCR端到端识别任务</a>A榜评估集。</li>
<li>ch_RepSVTR_rec<a href="https://aistudio.baidu.com/competition/detail/1131/0/introduction">PaddleOCR算法模型挑战赛 - 赛题一OCR端到端识别任务</a>B榜评估集。</li>
<li>英文识别模型:自建的内部英文数据集。</li>
<li>多语言识别模型:P自建的内部多语种数据集。</li>
<li>多语言识别模型:自建的内部多语种数据集。</li>
<li>文本行方向分类模型:自建的内部数据集,覆盖证件和文档等多个场景,包含 1000 张图片。</li>
<li>印章文本检测模型自建的内部数据集包含500张圆形印章图像。</li>
</ul>