Update faq_2020_s1.md

pull/539/head
littletomatodonkey 2021-01-02 23:54:13 +08:00 committed by GitHub
parent a454f34855
commit 5f6992d9a8
No known key found for this signature in database
GPG Key ID: 4AEE18F83AFDEB23
1 changed files with 1 additions and 1 deletions

View File

@ -332,7 +332,7 @@ Cosine_decay和piecewise_decay的学习率变化曲线如下图所示容易
- 挖掘相关数据用在现有数据集上训练饱和的模型去对相关的数据做预测将置信度较高的数据打label后加入训练集进一步训练如此循环操作可进一步提升模型的精度。
- 知识蒸馏可以先使用一个较大的模型在该数据集上训练一个精度较高的teacher model然后使用该teacher model去教导一个Student model其中Student model即为目标模型。PaddleClas提供了百度自研的SSLD知识蒸馏方案即使在ImageNet-1k这么有挑战的分类任务上其也能稳定提升3%以上。SSLD知识蒸馏的的章节请参考[**SSLD知识蒸馏**](https://paddleclas.readthedocs.io/zh_CN/latest/advanced_tutorials/distillation/distillation.html)。
- 知识蒸馏可以先使用一个较大的模型在该数据集上训练一个精度较高的teacher model然后使用该teacher model去教导一个Student model其中Student model即为目标模型。PaddleClas提供了百度自研的SSLD知识蒸馏方案即使在ImageNet-1k这么有挑战的分类任务上其也能稳定提升3%以上。SSLD知识蒸馏的的章节请参考[**SSLD知识蒸馏**](../advanced_tutorials/distillation/distillation.md)。
<a name="第6期"></a>