Update README.md

pull/14/head
dyning 2020-04-10 23:26:13 +08:00 committed by GitHub
parent 0b9ea28fa9
commit be589eb6bd
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
1 changed files with 10 additions and 10 deletions

View File

@ -4,7 +4,7 @@
PaddleClas的目的是为工业界和学术界提供一个图像分类任务相关的百宝箱特色如下
- 模型库ResNet_vd、MobileNetV3等25种系列的分类网络结构和训练技巧以及对应的117个分类预训练模型和性能评估
- 高阶使用:高精度的实用模型蒸馏方案准确率82.39%的ResNet50_vd和78.9%的MobileNetV3、8种数据增广方法的复现和验证
- 高阶使用:高精度的实用知识蒸馏方案准确率82.39%的ResNet50_vd和78.9%的MobileNetV3、8种数据增广方法的复现和验证
- 应用拓展常见视觉任务的特色方案包括图像分类领域的迁移学习百度自研的10万类图像分类预训练模型和通用目标检测mAP 47.8%的实用检测方案)等
@ -34,22 +34,22 @@ src="docs/images/models/mobile_arm_top1.png" width="600">
## 高阶使用
除了提供丰富的分类网络结构和预训练模型PaddleClas也支持了一系列有助于图像分类任务效果和效率提升的算法或工具。
### 模型蒸馏
### 知识蒸馏
模型蒸馏是指使用教师模型(teacher model)去指导学生模型(student model)学习特定任务,保证小模型在参数量不变的情况下,得到比较大的效果提升,甚至获得与大模型相似的精度指标。
<div align="center">
<img
src="docs/images/distillation/ppcls_distillation_v1.png" width="600">
</div>
PaddleClas提供了一种简单的半监督标签模型蒸馏方案SSLDSimple Semi-supervised Label Distillation使用该方案大幅提升了ResNet50_vd、MobileNetV1和MobileNetV3在ImageNet数据集上分类效果。该蒸馏方案的框架图和蒸馏模型效果如下图所示详细的蒸馏方法介绍以及使用正在持续更新中。
知识蒸馏是指使用教师模型(teacher model)去指导学生模型(student model)学习特定任务,保证小模型在参数量不变的情况下,得到比较大的效果提升,甚至获得与大模型相似的精度指标。
<div align="center">
<img
src="docs/images/distillation/distillation_perform.png" width="500">
</div>
PaddleClas提供了一种简单的半监督标签知识蒸馏方案SSLDSimple Semi-supervised Label Distillation使用该方案大幅提升了ResNet50_vd、MobileNetV1、MobileNetV2和MobileNetV3在ImageNet数据集上分类效果如上图所示。该知识蒸馏方案的框架图如下详细的知识蒸馏方法介绍以及使用正在持续更新中。
<div align="center">
<img
src="docs/images/distillation/ppcls_distillation_v1.png" width="600">
</div>
### 数据增广
在图像分类任务中图像数据的增广是一种常用的正则化方法可以有效提升图像分类的效果尤其对于数据量不足或者模型网络较深的场景。PaddleClas支持了最新的8种数据增广算法的复现和在统一实验环境下效果评估如下图所示。每种数据增广方法的详细介绍、对比的实验环境以及使用正在持续更新中。