Supplement other docs

pull/2610/head
zhangyubo0722 2023-01-03 09:53:18 +00:00 committed by cuicheng01
parent a77ce6ed72
commit 94fe07d042
32 changed files with 249 additions and 145 deletions

View File

@ -36,13 +36,17 @@ CSPNetCross Stage Partial Network系列网络模型主要是一种网络
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| CSPDarkNet53 | 0.7725 | 0.9355 | - | - | 5.041 | 27.678 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。
### 1.3 Benchmark
<a name='1.3.1'></a>
#### 1.3.1 基于 V100 GPU 的预测速度
敬请期待。
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| ------------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| CSPDarkNet53 | 256 | 2.80 | 5.43 | 9.48 |
<a name="2"></a>

View File

@ -54,15 +54,15 @@ DLA(Deep Layer Aggregation)。 视觉识别需要丰富的表示形式,其范
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| DLA102 | 224 | 4.95 | 8.08 | 12.40 |
| DLA102x2 | 224 | 19.58 | 23.97 | 31.37 |
| DLA102x | 224 | 11.12 | 15.60 | 20.37 |
| DLA169 | 224 | 7.70 | 12.25 | 18.90 |
| DLA34 | 224 | 1.83 | 3.37 | 5.98 |
| DLA46_c | 224 | 1.06 | 2.08 | 3.23 |
| DLA60 | 224 | 2.78 | 5.36 | 8.29 |
| DLA60x_c | 224 | 1.79 | 3.68 | 5.19 |
| DLA60x | 224 | 5.98 | 9.24 | 12.52 |
| DLA102 | 224 | 4.15 | 6.81 | 11.60 |
| DLA102x2 | 224 | 6.40 | 16.08 | 33.51 |
| DLA102x | 224 | 4.68 | 16.44 | 20.98 |
| DLA169 | 224 | 6.45 | 10.79 | 18.31 |
| DLA34 | 224 | 1.67 | 2.49 | 4.31 |
| DLA46_c | 224 | 0.88 | 1.44 | 1.96 |
| DLA60 | 224 | 2.54 | 4.26 | 7.01 |
| DLA60x_c | 224 | 1.04 | 1.82 | 3.68 |
| DLA60x | 224 | 2.66 | 8.44 | 11.95 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -63,11 +63,11 @@ DPN 的全称是 Dual Path Networks即双通道网络。该网络是由 Dense
| Models | Crop Size | Resize Short Size | FP32<br/>Batch Size=1<br/>(ms) | FP32<br/>Batch Size=4<br/>(ms) | FP32<br/>Batch Size=8<br/>(ms) |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
| DPN68 | 224 | 256 | 8.18 | 11.40 | 14.82 |
| DPN92 | 224 | 256 | 12.48 | 20.04 | 25.10 |
| DPN98 | 224 | 256 | 14.70 | 25.55 | 35.12 |
| DPN107 | 224 | 256 | 19.46 | 35.62 | 50.22 |
| DPN131 | 224 | 256 | 19.64 | 34.60 | 47.42 |
| DPN68 | 224 | 256 | 2.82 | 10.90 | 14.45 |
| DPN92 | 224 | 256 | 6.15 | 11.20 | 20.00 |
| DPN98 | 224 | 256 | 6.15 | 25.22 | 35.69 |
| DPN107 | 224 | 256 | 8.39 | 34.44 | 52.12 |
| DPN131 | 224 | 256 | 8.26 | 33.96 | 48.62 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -53,14 +53,14 @@ DeiTData-efficient Image Transformers系列模型是由 FaceBook 在 2020
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| ------------------------------------ | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| DeiT_tiny_<br>patch16_224 | 224 | 3.61 | 3.94 | 6.10 |
| DeiT_small_<br>patch16_224 | 224 | 3.61 | 6.24 | 10.49 |
| DeiT_base_<br>patch16_224 | 224 | 6.13 | 14.87 | 28.50 |
| DeiT_base_<br>patch16_384 | 384 | 14.12 | 48.80 | 97.60 |
| DeiT_tiny_<br>distilled_patch16_224 | 224 | 3.51 | 4.05 | 6.03 |
| DeiT_small_<br>distilled_patch16_224 | 224 | 3.70 | 6.20 | 10.53 |
| DeiT_base_<br>distilled_patch16_224 | 224 | 6.17 | 14.94 | 28.58 |
| DeiT_base_<br>distilled_patch16_384 | 384 | 14.12 | 48.76 | 97.09 |
| DeiT_tiny_<br>patch16_224 | 224 | 3.87 | 3.58 | 4.64 |
| DeiT_small_<br>patch16_224 | 224 | 3.52 | 5.90 | 9.44 |
| DeiT_base_<br>patch16_224 | 224 | 5.97 | 15.52 | 27.39 |
| DeiT_base_<br>patch16_384 | 384 | 13.78 | 45.94 | 89.38 |
| DeiT_tiny_<br>distilled_patch16_224 | 224 | 3.31 | 3.61 | 4.57 |
| DeiT_small_<br>distilled_patch16_224 | 224 | 3.57 | 5.91 | 9.51 |
| DeiT_base_<br>distilled_patch16_224 | 224 | 6.00 | 15.43 | 27.10 |
| DeiT_base_<br>distilled_patch16_384 | 384 | 13.76 | 45.61 | 89.15 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -64,11 +64,11 @@ DenseNet 是 2017 年 CVPR best paper 提出的一种新的网络结构,该网
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
| DenseNet121 | 224 | 3.40 | 6.94 | 9.17 |
| DenseNet161 | 224 | 7.06 | 14.37 | 19.55 |
| DenseNet169 | 224 | 5.00 | 10.29 | 12.84 |
| DenseNet201 | 224 | 6.38 | 13.72 | 17.17 |
| DenseNet264 | 224 | 9.34 | 20.95 | 25.41 |
| DenseNet121 | 224 | 3.22 | 6.25 | 8.20 |
| DenseNet161 | 224 | 6.83 | 13.39 | 18.34 |
| DenseNet169 | 224 | 4.81 | 9.53 | 11.94 |
| DenseNet201 | 224 | 6.15 | 12.70 | 15.93 |
| DenseNet264 | 224 | 9.05 | 19.57 | 23.84 |
| DPN68 | 224 | 8.18 | 11.40 | 14.82 |
| DPN92 | 224 | 12.48 | 20.04 | 25.10 |
| DPN98 | 224 | 14.70 | 25.55 | 35.12 |

View File

@ -37,7 +37,22 @@ ESNet(Enhanced ShuffleNet)是百度自研的一个轻量级网络,该网络在
| ESNet_x0_75 | 72.24 | 90.45 | - | - | 123.7 | 3.87 |
| ESNet_x1_0 | 73.92 | 91.40 | - | - | 197.3 | 4.64 |
关于 Inference speed 等信息,敬请期待。
**备注:** PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
### 1.3 Benchmark
<a name='1.3.1'></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------------------------|-------------------|-------------------------------|-------------------------------|-------------------------------|
| ESNet_x0_25 | 224 | 0.88 | 1.41 | 1.37 |
| ESNet_x0_5 | 224 | 1.04 | 1.47 | 1.47 |
| ESNet_x0_75 | 224 | 1.13 | 1.63 | 1.71 |
| ESNet_x1_0 | 224 | 1.35 | 1.66 | 2.04 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。
<a name="2"></a>

View File

@ -67,14 +67,14 @@ EfficientNet 是 Google 于 2019 年发布的一个基于 NAS 的轻量级网络
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------------------------|-------------------|-------------------------------|-------------------------------|-------------------------------|
| EfficientNetB0 | 224 | 1.96 | 3.71 | 5.56 |
| EfficientNetB1 | 240 | 2.88 | 5.40 | 7.63 |
| EfficientNetB2 | 260 | 3.26 | 6.20 | 9.17 |
| EfficientNetB3 | 300 | 4.52 | 8.85 | 13.54 |
| EfficientNetB4 | 380 | 6.78 | 15.47 | 24.95 |
| EfficientNetB5 | 456 | 10.97 | 27.24 | 45.93 |
| EfficientNetB6 | 528 | 17.09 | 43.32 | 76.90 |
| EfficientNetB7 | 600 | 25.91 | 71.23 | 128.20 |
| EfficientNetB0 | 224 | 1.58 | 2.55 | 3.69 |
| EfficientNetB1 | 240 | 2.29 | 3.92 | 5.50 |
| EfficientNetB2 | 260 | 2.52 | 4.47 | 6.78 |
| EfficientNetB3 | 300 | 3.44 | 6.53 | 10.44 |
| EfficientNetB4 | 380 | 5.35 | 11.69 | 19.97 |
| EfficientNetB5 | 456 | 8.52 | 21.94 | 38.37 |
| EfficientNetB6 | 528 | 13.49 | 36.99 | 67.17 |
| EfficientNetB7 | 600 | 21.91 | 62.29 | 116.07 |
| EfficientNetB0_<br>small | 224 | 1.24 | 2.59 | 3.92 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -66,15 +66,15 @@ HRNet 是 2019 年由微软亚洲研究院提出的一种全新的神经网络
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
| HRNet_W18_C | 224 | 6.66 | 8.94 | 11.95 |
| HRNet_W18_C | 224 | 6.33 | 8.12 | 10.91 |
| HRNet_W18_C_ssld | 224 | 6.66 | 8.92 | 11.93 |
| HRNet_W30_C | 224 | 8.61 | 11.40 | 15.23 |
| HRNet_W32_C | 224 | 8.54 | 11.58 | 15.57 |
| HRNet_W40_C | 224 | 9.83 | 15.02 | 20.92 |
| HRNet_W44_C | 224 | 10.62 | 16.18 | 25.92 |
| HRNet_W48_C | 224 | 11.07 | 17.06 | 27.28 |
| HRNet_W30_C | 224 | 8.34 | 10.65 | 13.95 |
| HRNet_W32_C | 224 | 8.03 | 10.46 | 14.11 |
| HRNet_W40_C | 224 | 9.64 | 14.27 | 19.54 |
| HRNet_W44_C | 224 | 10.54 | 15.41 | 24.50 |
| HRNet_W48_C | 224 | 10.81 | 15.67 | 15.53 |
| HRNet_W48_C_ssld | 224 | 11.09 | 17.04 | 27.28 |
| HRNet_W64_C | 224 | 13.82 | 21.15 | 35.51 |
| HRNet_W64_C | 224 | 13.12 | 19.49 | 33.80 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -48,10 +48,10 @@ HarDNetHarmonic DenseNet是 2019 年由国立清华大学提出的一种
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| ------------ | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| HarDNet68 | 224 | 3.58 | 8.53 | 11.58 |
| HarDNet85 | 224 | 6.24 | 14.85 | 20.57 |
| HarDNet39_ds | 224 | 1.40 | 2.30 | 3.33 |
| HarDNet68_ds | 224 | 2.26 | 3.34 | 5.06 |
| HarDNet68 | 224 | 2.97 | 4.12 | 6.05 |
| HarDNet85 | 224 | 4.67 | 7.17 | 10.85 |
| HarDNet39_ds | 224 | 1.12 | 1.54 | 2.00 |
| HarDNet68_ds | 224 | 1.88 | 2.56 | 3.37 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -70,13 +70,14 @@ InceptionV4 是 2016 年由 Google 设计的新的神经网络,当时残差结
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|------------------------|-------------------|------------------------|------------------------|------------------------|
| GoogLeNet | 224 | 1.41 | 3.25 | 5.00 |
| Xception41 | 299 | 3.58 | 8.76 | 16.61 |
| Xception41_<br>deeplab | 299 | 3.81 | 9.16 | 17.20 |
| Xception65 | 299 | 5.45 | 12.78 | 24.53 |
| Xception65_<br>deeplab | 299 | 5.65 | 13.08 | 24.61 |
| Xception71 | 299 | 6.19 | 15.34 | 29.21 |
| InceptionV4 | 299 | 8.93 | 15.17 | 21.56 |
| GoogLeNet | 224 | 1.26 | 2.84 | 3.64 |
| Xception41 | 299 | 3.20 | 7.78 | 14.83 |
| Xception41_<br>deeplab | 299 | 3.34 | 8.22 | 15.54 |
| Xception65 | 299 | 5.01 | 11.66 | 22.49 |
| Xception65_<br>deeplab | 299 | 4.98 | 11.90 | 22.94 |
| Xception71 | 299 | 5.75 | 14.11 | 27.37 |
| InceptionV3 | 299 | 3.92 | 5.98 | 9.57 |
| InceptionV4 | 299 | 7.09 | 10.95 | 18.37 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -53,9 +53,9 @@ MixNet 是谷歌出的一篇关于轻量级网络的文章,主要工作就在
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| MixNet_S | 224 | 2.31 | 3.63 | 5.20 |
| MixNet_M | 224 | 2.84 | 4.60 | 6.62 |
| MixNet_L | 224 | 3.16 | 5.55 | 8.03 |
| MixNet_S | 224 | 1.83 | 2.59 | 3.86 |
| MixNet_M | 224 | 2.25 | 3.38 | 5.06 |
| MixNet_L | 224 | 1.83 | 4.19 | 6.29 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -50,6 +50,19 @@ NextViT 是一种新的视觉 Transformer 网络,可以用作计算机视觉
- PaddleClas 所提供的该系列模型的预训练模型权重均是基于其官方提供的权重转得。PaddleClas 验证了 NextViT_small_224 的精度可以与论文精度对齐。
- 此处 `_ssld` 并非使用 PaddleClas 中的蒸馏的`SSLD 蒸馏`方法得到,而是使用类似`SSLD 蒸馏`挖掘的数据集训练得到。
### 1.3 Benchmark
<a name='1.3.1'></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| NextViT_small_224 | 224 | 7.76 | 10.86 | 14.20 |
| NextViT_base_224 | 224 | 12.02 | 16.21 | 20.63 |
| NextViT_large_224 | 224 | 16.51 | 21.91 | 27.25 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。
<a name="2"></a>

View File

@ -55,11 +55,11 @@ SENet 是 2017 年 ImageNet 分类比赛的冠军方案,其提出了一个全
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|---------------------------|-------------------|-------------------|-------------------|-------------------|
| AlexNet | 224 | 0.81 | 1.50 | 2.33 |
| SqueezeNet1_0 | 224 | 0.68 | 1.64 | 2.62 |
| SqueezeNet1_1 | 224 | 0.62 | 1.30 | 2.09 |
| AlexNet | 224 | 0.64 | 0.88 | 1.21 |
| SqueezeNet1_0 | 224 | 0.46 | 1.01 | 1.59 |
| SqueezeNet1_1 | 224 | 0.37 | 0.72 | 1.07 |
| DarkNet53 | 256 | 2.79 | 6.42 | 10.89 |
| SENet154_vd | 224 | 34.83 | 51.22 | 69.74 |
| SENet154_vd | 224 | 12.57 | 33.64 | 72.71 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -60,9 +60,9 @@ PP-HGNet 目前提供的模型的精度、速度指标及预训练权重链接
| Model | Top-1 Acc(\%) | Top-5 Acc(\%) | Latency(ms) | 预训练模型下载地址 | inference模型下载地址 |
|:--: |:--: |:--: |:--: | :--: |:--: |
| PPHGNet_tiny | 79.83 | 95.04 | 1.77 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_tiny_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_tiny_infer.tar) |
| PPHGNet_tiny | 79.83 | 95.04 | 1.72 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_tiny_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_tiny_infer.tar) |
| PPHGNet_tiny_ssld | 81.95 | 96.12 | 1.77 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_tiny_ssld_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_tiny_ssld_infer.tar) |
| PPHGNet_small | 81.51| 95.82 | 2.52 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_small_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_small_infer.tar) |
| PPHGNet_small | 81.51| 95.82 | 2.46 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_small_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_small_infer.tar) |
| PPHGNet_small_ssld | 83.82| 96.81 | 2.52 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_small_ssld_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_small_ssld_infer.tar) |
| PPHGNet_base_ssld | 85.00| 97.35 | 5.97 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPHGNet_base_ssld_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPHGNet_base_ssld_infer.tar) |
@ -213,7 +213,7 @@ cd path_to_PaddleClas
<a name="3.3.1"></a>
#### 3.3.1 训练 ImageNet
`ppcls/configs/ImageNet/PPHGNet/PPHGNet_small.yaml` 中提供了 PPHGNet_small 训练配置,可以通过如下脚本启动训练:
```shell
@ -228,13 +228,13 @@ python3 -m paddle.distributed.launch \
**备注:**
* 当前精度最佳的模型会保存在 `output/PPHGNet_small/best_model.pdparams`
<a name="3.3.2"></a>
#### 3.3.2 基于 ImageNet 权重微调
如果训练的不是 ImageNet 任务,而是其他任务时,需要更改配置文件和训练方法,详情可以参考:[模型微调](../../training/single_label_classification/finetune.md)。
<a name="3.4"></a>
@ -275,7 +275,7 @@ python3 tools/infer.py \
* 默认是对 `docs/images/inference_deployment/whl_demo.jpg` 进行预测,此处也可以通过增加字段 `-o Infer.infer_imgs=xxx` 对其他图片预测。
* 默认输出的是 Top-5 的值,如果希望输出 Top-k 的值,可以指定`-o Infer.PostProcess.topk=k`,其中,`k` 为您指定的值。
* 默认的标签映射基于 ImageNet 数据集,如果改变数据集,需要重新指定`Infer.PostProcess.class_id_map_file`,该映射文件的制作方法可以参考`ppcls/utils/imagenet1k_label_list.txt`。

View File

@ -121,14 +121,14 @@ BaseNet 经过以上四个方面的改进,得到了 PP-LCNet。下表进一步
| Model | Params(M) | FLOPs(M) | Top-1 Acc(\%) | Top-5 Acc(\%) | Latency(ms) | 预训练模型下载地址 | inference模型下载地址 |
|:--:|:--:|:--:|:--:|:--:|:--:|:--:|:--:|
| PPLCNet_x0_25 | 1.5 | 18 | 51.86 | 75.65 | 1.74 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_25_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_25_infer.tar) |
| PPLCNet_x0_35 | 1.6 | 29 | 58.09 | 80.83 | 1.92 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_35_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_35_infer.tar) |
| PPLCNet_x0_5 | 1.9 | 47 | 63.14 | 84.66 | 2.05 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_5_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_5_infer.tar) |
| PPLCNet_x0_75 | 2.4 | 99 | 68.18 | 88.30 | 2.29 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_75_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_75_infer.tar) |
| PPLCNet_x1_0 | 3.0 | 161 | 71.32 | 90.03 | 2.46 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_0_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_0_infer.tar) |
| PPLCNet_x1_5 | 4.5 | 342 | 73.71 | 91.53 | 3.19 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_5_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_5_infer.tar) |
| PPLCNet_x2_0 | 6.5 | 590 | 75.18 | 92.27 | 4.27 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_0_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_0_infer.tar) |
| PPLCNet_x2_5 | 9.0 | 906 | 76.60 | 93.00 | 5.39 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_5_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_5_infer.tar) |
| PPLCNet_x0_25 | 1.5 | 18 | 51.86 | 75.65 | 0.44 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_25_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_25_infer.tar) |
| PPLCNet_x0_35 | 1.6 | 29 | 58.09 | 80.83 | 0.45 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_35_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_35_infer.tar) |
| PPLCNet_x0_5 | 1.9 | 47 | 63.14 | 84.66 | 0.44 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_5_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_5_infer.tar) |
| PPLCNet_x0_75 | 2.4 | 99 | 68.18 | 88.30 | 0.44 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_75_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_75_infer.tar) |
| PPLCNet_x1_0 | 3.0 | 161 | 71.32 | 90.03 | 0.47 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_0_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_0_infer.tar) |
| PPLCNet_x1_5 | 4.5 | 342 | 73.71 | 91.53 | 0.54 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_5_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_5_infer.tar) |
| PPLCNet_x2_0 | 6.5 | 590 | 75.18 | 92.27 | 0.64 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_0_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_0_infer.tar) |
| PPLCNet_x2_5 | 9.0 | 906 | 76.60 | 93.00 | 0.71 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_5_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_5_infer.tar) |
| PPLCNet_x0_5_ssld | 1.9 | 47 | 66.10 | 86.46 | 2.05 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x0_5_ssld_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x0_5_ssld_infer.tar) |
| PPLCNet_x1_0_ssld | 3.0 | 161 | 74.39 | 92.09 | 2.46 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x1_0_ssld_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x1_0_ssld_infer.tar) |
| PPLCNet_x2_5_ssld | 9.0 | 906 | 80.82 | 95.33 | 5.39 | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/legendary_models/PPLCNet_x2_5_ssld_pretrained.pdparams) | [下载链接](https://paddle-imagenet-models-name.bj.bcebos.com/dygraph/inference/PPLCNet_x2_5_ssld_infer.tar) |

View File

@ -112,7 +112,7 @@ PPLCNetV2 目前提供的模型的精度、速度指标及预训练权重链接
|:--:|:--:|:--:|:--:|:--:|:--:|
| MobileNetV3_Large_x1_25 | 7.4 | 714 | 76.4 | 93.00 | 5.19 |
| PPLCNetV1_x2_5 | 9 | 906 | 76.60 | 93.00 | 7.25 |
| <b>PPLCNetV2_base<b> | <b>6.6<b> | <b>604<b> | <b>77.04<b> | <b>93.27<b> | <b>4.32<b> |
| <b>PPLCNetV2_base<b> | <b>6.6<b> | <b>604<b> | <b>77.04<b> | <b>93.27<b> | <b>0.68<b> |
| <b>PPLCNetV2_base_ssld<b> | <b>6.6<b> | <b>604<b> | <b>80.07<b> | <b>94.87<b> | <b>4.32<b> |
@ -231,7 +231,7 @@ cd path_to_PaddleClas
<a name="3.3"></a>
### 3.3 模型训练
<a name="3.3.1"></a>
#### 3.3.1 训练 ImageNet
@ -249,7 +249,7 @@ python3 -m paddle.distributed.launch \
**备注:**
* 当前精度最佳的模型会保存在 `output/PPLCNetV2_base/best_model.pdparams`
#### 3.3.2 基于 ImageNet 权重微调
如果训练的不是 ImageNet 任务,而是其他任务时,需要更改配置文件和训练方法,详情可以参考:[模型微调](../../training/single_label_classification/finetune.md)。
@ -293,7 +293,7 @@ python3 tools/infer.py \
* 默认是对 `docs/images/inference_deployment/whl_demo.jpg` 进行预测,此处也可以通过增加字段 `-o Infer.infer_imgs=xxx` 对其他图片预测。
* 默认输出的是 Top-5 的值,如果希望输出 Top-k 的值,可以指定`-o Infer.PostProcess.topk=k`,其中,`k` 为您指定的值。
* 默认的标签映射基于 ImageNet 数据集,如果改变数据集,需要重新指定`Infer.PostProcess.class_id_map_file`,该映射文件的制作方法可以参考`ppcls/utils/imagenet1k_label_list.txt`。
<a name="4"></a>

View File

@ -40,6 +40,25 @@ PVTV2 是 VisionTransformer 系列模型,该模型基于 PVTPyramid Vision
| PVT_V2_B5 | 0.837 | 0.966 | 0.838 | - | 11.4 | 82.0 |
| PVT_V2_B2_Linear | 0.821 | 0.961 | 0.821 | - | 3.8 | 22.6 |
**备注:** PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
### 1.3 Benchmark
<a name='1.3.1'></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| PVT_V2_B0 | 224 | 2.87 | 3.46 | - |
| PVT_V2_B1 | 224 | 3.32 | 5.48 | - |
| PVT_V2_B2 | 224 | 5.94 | 9.98 | - |
| PVT_V2_B3 | 224 | 9.46 | - | - |
| PVT_V2_B4 | 224 | 14.06 | - | - |
| PVT_V2_B5 | 224 | - | - | - |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。
<a name="2"></a>
## 2. 模型快速体验

View File

@ -43,7 +43,11 @@ PeleeNet 系列模型是基于 DenseNet 网络所提出的稠密链接的思想
#### 1.3.1 基于 V100 GPU 的预测速度
敬请期待。
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| PeleeNet | 224 | 1.26 | 2.10 | 2.47 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。
<a name="2"></a>

View File

@ -50,11 +50,11 @@ ReXNet 是 NAVER 集团 ClovaAI 研发中心基于一种网络架构设计新范
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| ---------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ReXNet_1_0 | 224 | 3.08 | 4.15 | 5.49 |
| ReXNet_1_3 | 224 | 3.54 | 4.87 | 6.54 |
| ReXNet_1_5 | 224 | 3.68 | 5.31 | 7.38 |
| ReXNet_2_0 | 224 | 4.30 | 6.54 | 9.19 |
| ReXNet_3_0 | 224 | 5.74 | 9.49 | 13.62 |
| ReXNet_1_0 | 224 | 3.10 | 3.29 | 3.50 |
| ReXNet_1_3 | 224 | 3.38 | 3.45 | 4.37 |
| ReXNet_1_5 | 224 | 3.20 | 3.57 | 5.00 |
| ReXNet_2_0 | 224 | 3.32 | 4.45 | 6.50 |
| ReXNet_3_0 | 224 | 3.83 | 6.81 | 10.42 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -50,11 +50,11 @@
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| --------- | --------- | ---------------- | ---------------- | ----------------- |
| RedNet26 | 224 | 4.45 | 15.16 | 29.03 |
| RedNet38 | 224 | 6.24 | 21.39 | 41.26 |
| RedNet50 | 224 | 8.04 | 27.71 | 53.73 |
| RedNet101 | 224 | 13.07 | 44.12 | 83.28 |
| RedNet152 | 224 | 18.66 | 63.27 | 119.48 |
| RedNet26 | 224 | 5.36 | 17.89 | 31.83 |
| RedNet38 | 224 | 7.42 | 25.11 | 45.99 |
| RedNet50 | 224 | 9.47 | 31.93 | 61.41 |
| RedNet101 | 224 | 14.89 | 51.40 | 98.07 |
| RedNet152 | 224 | 21.41 | 74.07 | 138.91 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -49,6 +49,29 @@ RepVGG(Making VGG-style ConvNets Great Again)系列模型是由清华大学(丁
**备注:** PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
### 1.3 Benchmark
<a name='1.3.1'></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| RepVGG_A0 | 224 | 1.38 | 1.85 | 2.81 |
| RepVGG_A1 | 224 | 1.68 | 2.33 | 3.70 |
| RepVGG_A2 | 224 | 2.31 | 4.46 | 6.53 |
| RepVGG_B0 | 224 | 1.99 | 2.87 | 4.67 |
| RepVGG_B1 | 224 | 3.56 | 7.64 | 13.94 |
| RepVGG_B2 | 224 | 4.45 | 9.79 | 19.13 |
| RepVGG_B1g2 | 224 | 4.18 | 6.93 | 11.99 |
| RepVGG_B1g4 | 224 | 4.73 | 7.23 | 11.14 |
| RepVGG_B2g4 | 224 | 5.47 | 8.94 | 14.73 |
| RepVGG_B3 | 224 | 4.28 | 11.64 | 21.14 |
| RepVGG_B3g4 | 224 | 4.21 | 8.22 | 14.69 |
| RepVGG_D2se | 224 | - | - | - |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。
<a name="2"></a>
## 2. 模型快速体验

View File

@ -64,14 +64,14 @@ Res2Net 是 2019 年提出的一种全新的对 ResNet 的改进方案,该方
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-----------------------|-------------------|-----------------------|-----------------------|-----------------------|
| Res2Net50_26w_4s | 224 | 3.52 | 6.23 | 9.30 |
| Res2Net50_vd_26w_4s | 224 | 3.59 | 6.35 | 9.50 |
| Res2Net50_14w_8s | 224 | 4.39 | 7.21 | 10.38 |
| Res2Net50_26w_4s | 224 | 3.31 | 5.65 | 8.33 |
| Res2Net50_vd_26w_4s | 224 | 3.35 | 5.79 | 8.63 |
| Res2Net50_14w_8s | 224 | 4.13 | 6.56 | 9.45 |
| Res2Net101_vd_26w_4s | 224 | 6.34 | 11.02 | 16.13 |
| Res2Net200_vd_26w_4s | 224 | 11.45 | 19.77 | 28.81 |
| Res2Net50_vd_26w_4s_ssld | 224 | 3.58 | 6.35 | 9.52 |
| Res2Net101_vd_26w_4s_ssld | 224 | 6.33 | 11.02 | 16.11 |
| Res2Net200_vd_26w_4s_ssld | 224 | 11.47 | 19.75 | 28.83 |
| Res2Net101_vd_26w_4s_ssld | 224 | 9.56 | 10.56 | 15.20 |
| Res2Net200_vd_26w_4s_ssld | 224 | 10.80 | 19.48 | 27.95 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -49,8 +49,11 @@ ResNeSt 系列模型是在 2020 年提出的,在原有的 resnet 网络结构
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| ---------------------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ResNeSt50_fast_1s1x64d | 224 | 2.73 | 5.33 | 8.24 |
| ResNeSt50 | 224 | 7.36 | 10.23 | 13.84 |
| ResNeSt50_fast_1s1x64d | 224 | 2.43 | 4.34 | 6.96 |
| ResNeSt50 | 224 | 13.08 | 16.38 | 23.18 |
| ResNeSt101 | 256 | 19.16 | 22.62 | 32.59 |
| ResNeSt200 | 224 | - | - | - |
| ResNeSt269 | 224 | - | - | - |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -72,14 +72,14 @@ ResNeXt 是 ResNet 的典型变种网络之一ResNeXt 发表于 2017 年的 C
| ResNeXt50_vd_32x4d | 224 | 5.29 | 8.68 | 12.33 |
| ResNeXt50_64x4d | 224 | 9.39 | 13.97 | 20.56 |
| ResNeXt50_vd_64x4d | 224 | 9.75 | 14.14 | 20.84 |
| ResNeXt101_32x4d | 224 | 11.34 | 16.78 | 22.80 |
| ResNeXt101_vd_32x4d | 224 | 11.36 | 17.01 | 23.07 |
| ResNeXt101_64x4d | 224 | 21.57 | 28.08 | 39.49 |
| ResNeXt101_vd_64x4d | 224 | 21.57 | 28.22 | 39.70 |
| ResNeXt152_32x4d | 224 | 17.14 | 25.11 | 33.79 |
| ResNeXt152_vd_32x4d | 224 | 16.99 | 25.29 | 33.85 |
| ResNeXt152_64x4d | 224 | 33.07 | 42.05 | 59.13 |
| ResNeXt152_vd_64x4d | 224 | 33.30 | 42.41 | 59.42 |
| ResNeXt101_32x4d | 224 | 4.81 | 17.60 | 22.98 |
| ResNeXt101_vd_32x4d | 224 | 4.85 | 17.50 | 23.11 |
| ResNeXt101_64x4d | 224 | 10.88 | 20.17 | 41.79 |
| ResNeXt101_vd_64x4d | 224 | 7.34 | 22.46 | 41.79 |
| ResNeXt152_32x4d | 224 | 7.09 | 27.16 | 34.32 |
| ResNeXt152_vd_32x4d | 224 | 4.85 | 26.83 | 34.48 |
| ResNeXt152_64x4d | 224 | 3.62 | 30.14 | 62.60 |
| ResNeXt152_vd_64x4d | 224 | 3.68 | 30.30 | 62.94 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -61,10 +61,10 @@ ResNeXt 是 facebook 于 2016 年提出的一种对 ResNet 的改进版网络。
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------------------------|-------------------|-------------------------------|-------------------------------|-------------------------------|
| ResNeXt101_<br>32x8d_wsl | 224 | 13.55 | 23.39 | 36.18 |
| ResNeXt101_<br>32x16d_wsl | 224 | 21.96 | 38.35 | 63.29 |
| ResNeXt101_<br>32x32d_wsl | 224 | 37.28 | 76.50 | 121.56 |
| ResNeXt101_<br>32x48d_wsl | 224 | 55.07 | 124.39 | 205.01 |
| ResNeXt101_<br>32x8d_wsl | 224 | 15.85 | 23.61 | 35.60 |
| ResNeXt101_<br>32x16d_wsl | 224 | 20.58 | 37.38 | 66.45 |
| ResNeXt101_<br>32x32d_wsl | 224 | 49.87 | 86.16 | 120.14 |
| ResNeXt101_<br>32x48d_wsl | 224 | 69.81 | 121.22 | 205.55 |
| Fix_ResNeXt101_<br>32x48d_wsl | 320 | 55.01 | 122.63 | 204.66 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -83,22 +83,22 @@ PaddleClas 提供的 ResNet 系列的模型包括 ResNet50ResNet50_vdResNe
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|:--:|:--:|:--:|:--:|:--:|
| ResNet18 | 224 | 1.22 | 2.19 | 3.63 |
| ResNet18_vd | 224 | 1.26 | 2.28 | 3.89 |
| ResNet34 | 224 | 1.97 | 3.25 | 5.70 |
| ResNet34_vd | 224 | 2.00 | 3.28 | 5.84 |
| ResNet18 | 224 | 1.08 | 1.44 | 2.40 |
| ResNet18_vd | 224 | 1.11 | 1.52 | 2.60 |
| ResNet34 | 224 | 1.83 | 2.41 | 4.23 |
| ResNet34_vd | 224 | 1.87 | 2.49 | 4.41 |
| ResNet34_vd_ssld | 224 | 2.00 | 3.26 | 5.85 |
| ResNet50 | 224 | 2.54 | 4.79 | 7.40 |
| ResNet50 | 224 | 2.19 | 3.77 | 6.22 |
| ResNet50_vc | 224 | 2.57 | 4.83 | 7.52 |
| ResNet50_vd | 224 | 2.60 | 4.86 | 7.63 |
| ResNet101 | 224 | 4.37 | 8.18 | 12.38 |
| ResNet101_vd | 224 | 4.43 | 8.25 | 12.60 |
| ResNet152 | 224 | 6.05 | 11.41 | 17.33 |
| ResNet152_vd | 224 | 6.11 | 11.51 | 17.59 |
| ResNet200_vd | 224 | 7.70 | 14.57 | 22.16 |
| SE_ResNet18_vd | 224 | 1.48 | 2.70 | 4.32 |
| SE_ResNet34_vd | 224 | 2.42 | 3.69 | 6.29 |
| SE_ResNet50_vd | 224 | 3.11 | 5.99 | 9.34 |
| ResNet50_vd | 224 | 2.32 | 3.92 | 6.46 |
| ResNet101 | 224 | 4.00 | 6.84 | 11.24 |
| ResNet101_vd | 224 | 4.04 | 6.84 | 11.44 |
| ResNet152 | 224 | 5.71 | 9.58 | 16.16 |
| ResNet152_vd | 224 | 5.76 | 9.75 | 16.40 |
| ResNet200_vd | 224 | 7.32 | 12.45 | 21.09 |
| SE_ResNet18_vd | 224 | 1.31 | 1.77 | 2.92 |
| SE_ResNet34_vd | 224 | 2.20 | 2.99 | 2.92 |
| SE_ResNet50_vd | 224 | 2.72 | 5.07 | 8.12 |
| ResNet50_vd_ssld | 224 | 2.59 | 4.87 | 7.62 |
| ResNet101_vd_ssld | 224 | 4.43 | 8.25 | 12.58 |

View File

@ -58,9 +58,9 @@ SENet 是 2017 年 ImageNet 分类比赛的冠军方案,其提出了一个全
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-----------------------|-------------------|-----------------------|-----------------------|-----------------------|
| SE_ResNeXt50_32x4d | 224 | 6.39 | 11.01 | 14.94 |
| SE_ResNeXt50_vd_32x4d | 224 | 7.04 | 11.57 | 16.01 |
| SE_ResNeXt101_32x4d | 224 | 13.31 | 21.85 | 28.77 |
| SE_ResNeXt50_32x4d | 224 | 2.95 | 10.77 | 14.51 |
| SE_ResNeXt50_vd_32x4d | 224 | 3.06 | 10.91 | 15.53 |
| SE_ResNeXt101_32x4d | 224 | 5.78 | 21.04 | 28.67 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -49,12 +49,12 @@ Twins 网络包括 Twins-PCPVT 和 Twins-SVT其重点对空间注意力机制
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| ------------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| pcpvt_small | 224 | 7.32 | 10.51 | 15.27 |
| pcpvt_base | 224 | 12.20 | 16.22 | 23.16 |
| pcpvt_small | 224 | 5.74 | 10.51 | 15.27 |
| pcpvt_base | 224 | 8.44 | 16.22 | 23.16 |
| pcpvt_large | 224 | 16.47 | 22.90 | 32.73 |
| alt_gvt_small | 224 | 6.94 | 9.01 | 12.27 |
| alt_gvt_base | 224 | 9.37 | 15.02 | 24.54 |
| alt_gvt_large | 224 | 11.76 | 22.08 | 35.12 |
| alt_gvt_small | 224 | 4.93 | 9.01 | 10.02 |
| alt_gvt_base | 224 | 7.48 | 12.60 | 19.93 |
| alt_gvt_large | 224 | 9.28 | 18.72 | 31.18 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -38,9 +38,24 @@ UniFormer 是一种新的视觉 Transformer 网络,可以用作计算机视觉
| UniFormer_base | 0.8376 | 0.9672 | 0.839 | - | 7.77 | 49.78 |
| UniFormer_base_ls | 0.8398 | 0.9675 | 0.839 | 0.967 | 7.77 | 49.78 |
**备注:** PaddleClas 所提供的该系列模型的预训练模型权重,均是基于其官方提供的权重转得。
### 1.3 Benchmark
<a name='1.3.1'></a>
#### 1.3.1 基于 V100 GPU 的预测速度
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| UniFormer_small | 224 | 3.68 | 5.93 | 9.64 |
| UniFormer_small_plus | 224 | 4.12 | 7.03 | 11.59 |
| UniFormer_small_plus_dim64 | 224 | 3.91 | 6.56 | 10.69 |
| UniFormer_base | 224 | 8.19 | 12.98 | 21.29 |
| UniFormer_base_ls | 224 | 14.79 | - | 22.20 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。
<a name="2"></a>
## 2. 模型快速体验

View File

@ -45,7 +45,14 @@ VANVisual Attention Network系列模型是在 2022 年提出的 CNN 架构
#### 1.3.1 基于 V100 GPU 的预测速度
敬请期待。
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|-------------|-----------|-------------------|-------------------|-------------------|-------------------|
| VAN-B0 | 224 | 9.58 | 10.21 | 10.78 |
| VAN-B1 | 224 | 8.24 | 8.74 | 9.85 |
| VAN-B2 | 224 | 17.09 | 18.48 | 19.32 |
| VAN-B3 | 224 | 32.09 | 33.91 | 36.13 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。
<a name="2"></a>

View File

@ -48,10 +48,10 @@ VGG 由牛津大学计算机视觉组和 DeepMind 公司研究员一起研发的
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
|---------------------------|-------------------|-------------------|-------------------|-------------------|
| VGG11 | 224 | 1.72 | 4.15 | 7.24 |
| VGG13 | 224 | 2.02 | 5.28 | 9.54 |
| VGG16 | 224 | 2.48 | 6.79 | 12.33 |
| VGG19 | 224 | 2.93 | 8.28 | 15.21 |
| VGG11 | 224 | 1.54 | 3.71 | 6.64 |
| VGG13 | 224 | 1.83 | 4.96 | 9.16 |
| VGG16 | 224 | 2.28 | 6.56 | 12.25 |
| VGG19 | 224 | 2.73 | 8.18 | 15.33 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。

View File

@ -52,13 +52,13 @@ ViTVision Transformer系列模型是 Google 在 2020 年提出的,该模
| Models | Size | Latency(ms)<br>bs=1 | Latency(ms)<br>bs=4 | Latency(ms)<br>bs=8 |
| -------------------------- | --------- | ----------------- | ------------------------------ | ------------------------------ | ------------------------------ |
| ViT_small_<br/>patch16_224 | 224 | 3.71 | 9.05 | 16.72 |
| ViT_base_<br/>patch16_224 | 224 | 6.12 | 14.84 | 28.51 |
| ViT_base_<br/>patch16_384 | 384 | 14.15 | 48.38 | 95.06 |
| ViT_base_<br/>patch32_384 | 384 | 4.94 | 13.43 | 24.08 |
| ViT_large_<br/>patch16_224 | 224 | 15.53 | 49.50 | 94.09 |
| ViT_large_<br/>patch16_384 | 384 | 39.51 | 152.46 | 304.06 |
| ViT_large_<br/>patch32_384 | 384 | 11.44 | 36.09 | 70.63 |
| ViT_small_<br/>patch16_224 | 224 | 3.81 | 8.65 | 15.80 |
| ViT_base_<br/>patch16_224 | 224 | 5.93 | 15.46 | 27.14 |
| ViT_base_<br/>patch16_384 | 384 | 13.78 | 45.59 | 88.65 |
| ViT_base_<br/>patch32_384 | 384 | 5.29 | 12.33 | 22.44 |
| ViT_large_<br/>patch16_224 | 224 | 15.57 | 49.66 | 91.45 |
| ViT_large_<br/>patch16_384 | 384 | 38.67 | 142.57 | 282.87 |
| ViT_large_<br/>patch32_384 | 384 | 12.07 | 34.53 | 65.81 |
**备注:** 精度类型为 FP32推理过程使用 TensorRT。