Update README.md

pull/22/head
dyning 2020-04-14 00:10:00 +08:00 committed by GitHub
parent 219a9928bd
commit 127ff14191
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
1 changed files with 3 additions and 3 deletions

View File

@ -22,14 +22,14 @@ PaddleClas的目的是为工业界和学术界提供一个图像分类任务相
<img src="docs/images/models/main_fps_top1.png" width="600">
</div>
上图展示了一些适合服务器端应用的模型使用V100FP16和TensorRT预测一个batch的时间其中batch_size=32图中ResNet50_vd_ssld是采用PaddleClas提供的SSLD蒸馏方法训练的模型。图中相同颜色和符号的点代表同一系列不同规模的模型。不同模型的FLOPS和Parameters、FP16和FP32的预测时间以及不同batch_size的预测时间请参考文档教程中的[**模型库章节**](https://paddleclas.readthedocs.io/zh_CN/latest/zh_cn/models/models_intro.html)。
上图展示了一些适合服务器端应用的模型使用V100FP32和TensorRT预测一张图像的时间图中ResNet50_vd_ssld和ResNet101_vd_ssld是采用PaddleClas提供的SSLD蒸馏方法训练的模型。图中相同颜色和符号的点代表同一系列不同规模的模型。不同模型的简介、FLOPS、Parameters以及详细GPU预测时间请参考文档教程中的[**模型库章节**](https://paddleclas.readthedocs.io/zh_CN/latest/zh_cn/models/models_intro.html)。
<div align="center">
<img
src="docs/images/models/mobile_arm_top1.png" width="700">
</div>
上图展示了一些适合移动端应用的模型在SD855上预测一张图像的CPU时间。图中MV3_large_x1_0_ssldM是MobileNet的简称MV3_small_x1_0_ssld、MV2_ssld和MV1_ssld是采用PaddleClas提供的SSLD蒸馏方法训练的模型。MV3_large_x1_0_ssld_int8是进一步进行INT8量化的模型。不同模型的FLOPS、Parameters、模型存储大小以及更多的GPU预测时间请参考文档教程中的[**模型库章节**](https://paddleclas.readthedocs.io/zh_CN/latest/zh_cn/models/models_intro.html)。
上图展示了一些适合移动端应用的模型在SD855上预测一张图像的CPU时间。图中MV3_large_x1_0_ssldM是MobileNet的简称MV3_small_x1_0_ssld、MV2_ssld和MV1_ssld是采用PaddleClas提供的SSLD蒸馏方法训练的模型。MV3_large_x1_0_ssld_int8是进一步进行INT8量化的模型。不同模型的简介、FLOPS、Parameters和模型存储大小请参考文档教程中的[**模型库章节**](https://paddleclas.readthedocs.io/zh_CN/latest/zh_cn/models/models_intro.html)。
- TODO
- [ ] EfficientLite、GhostNet、RegNet论文指标复现和性能评估
@ -45,7 +45,7 @@ src="docs/images/models/mobile_arm_top1.png" width="700">
src="docs/images/distillation/distillation_perform.png" width="500">
</div>
PaddleClas提供了一种简单的半监督标签知识蒸馏方案SSLDSimple Semi-supervised Label Distillation使用该方案大幅提升了ResNet50_vd、MobileNetV1、MobileNetV2和MobileNetV3在ImageNet数据集上分类效果如上图所示。该知识蒸馏方案的框架图如下详细的知识蒸馏方法介绍以及使用正在持续更新中。
PaddleClas提供了一种简单的半监督标签知识蒸馏方案SSLDSimple Semi-supervised Label Distillation使用该方案大幅提升了使用该方案大幅提升了ResNet101_vdResNet50_vd、MobileNetV1、MobileNetV2和MobileNetV3在ImageNet数据集上分类效果如上图所示。该知识蒸馏方案的框架图如下详细的知识蒸馏方法介绍以及使用正在持续更新中。
<div align="center">
<img