2020-04-10 00:45:02 +08:00
# 训练技巧
2020-04-19 20:34:18 +08:00
## 1.优化器的选择
2020-04-19 21:33:50 +08:00
自深度学习发展以来, 就有很多关于优化器的研究者工作, 优化器的目的是为了让损失函数尽可能的小, 从而找到合适的参数来完成某项任务。目前业界主要用到的优化器有SGD、RMSProp、Adam、AdaDelt等, 其中由于带momentum的SGD优化器广泛应用于学术界和工业界, 所以我们发布的模型也大都使用该优化器来实现损失函数的梯度下降。带momentum的SGD优化器有两个劣势, 其一是收敛速度慢, 其二是初始学习率的设置需要依靠大量的经验, 然而如果初始学习率设置得当并且迭代轮数充足, 该优化器也会在众多的优化器中脱颖而出, 使得其在验证集上获得更高的准确率。一些自适应学习率的优化器如Adam、RMSProp等, 收敛速度往往比较快, 但是最终的收敛精度会稍差一些。如果追求更快的收敛速度, 我们推荐使用这些自适应学习率的优化器, 如果追求更高的收敛精度, 我们推荐使用带momentum的SGD优化器。
2020-04-19 20:34:18 +08:00
## 2.学习率以及学习率下降策略的选择
2020-04-19 21:33:50 +08:00
学习率的选择往往和优化器以及数据和任务有关系。这里主要介绍以momentum+SGD作为优化器训练ImageNet-1k的学习率以及学习率下降的选择。
2020-04-21 22:33:52 +08:00
2020-04-19 20:34:18 +08:00
### 学习率的概念:
2020-04-19 21:33:50 +08:00
学习率是通过损失函数的梯度调整网络权重的超参数的速度。学习率越低,损失函数的变化速度就越慢。虽然使用低学习率可以确保不会错过任何局部极小值,但也意味着将花费更长的时间来进行收敛,特别是在被困在高原区域的情况下。
2020-04-21 22:33:52 +08:00
2020-04-19 20:34:18 +08:00
### 学习率下降策略:
2020-04-19 21:33:50 +08:00
在整个训练过程中, 我们不能使用同样的学习率来更新权重, 否则无法到达最优点, 所以需要在训练过程中调整学习率的大小。在训练初始阶段, 由于权重处于随机初始化的状态, 损失函数相对容易进行梯度下降, 所以可以设置一个较大的学习率。在训练后期, 由于权重参数已经接近最优值, 较大的学习率无法进一步寻找最优值, 所以需要设置一个较小的学习率。在训练整个过程中, 很多研究者使用的学习率下降方式是piecewise_decay, 即阶梯式下降学习率, 如在ResNet50标准的训练中, 我们设置的初始学习率是0.1, 每30epoch学习率下降到原来的1/10, 一共迭代120epoch。除了piecewise_decay, 很多研究者也提出了学习率的其他下降方式, 如polynomial_decay( 多项式下降) 、exponential_decay( 指数下降) ,cosine_decay( 余弦下降) 等, 其中cosine_decay无需调整超参数, 鲁棒性也比较高, 所以成为现在提高模型精度首选的学习率下降方式。Cosine_decay和piecewise_decay的学习率变化曲线如下图所示, 容易观察到, 在整个训练过程中, cosine_decay都保持着较大的学习率, 所以其收敛较为缓慢, 但是最终的收敛效果较peicewise_decay更好一些。
2020-04-21 22:32:48 +08:00
2020-04-21 22:48:43 +08:00

2020-04-21 22:32:48 +08:00
2020-04-19 20:34:18 +08:00
另外, 从图中我们也可以看到, cosine_decay里学习率小的轮数较少, 这样会影响到最终的精度, 所以为了使得cosine_decay发挥更好的效果, 建议迭代更多的轮数, 如200轮。
2020-04-21 22:33:52 +08:00
2020-04-19 20:34:18 +08:00
### warmup策略
2020-04-19 21:33:50 +08:00
如果使用较大的batch_size训练神经网络时, 我们建议您使用warmup策略。Warmup策略顾名思义就是让学习率先预热一下, 在训练初期我们不直接使用最大的学习率, 而是用一个逐渐增大的学习率去训练网络, 当学习率增大到最高点时, 再使用学习率下降策略中提到的学习率下降方式衰减学习率的值。实验表明, 在batch_size较大时, warmup可以稳定提升模型的精度。在训练MobileNetV3等batch_size较大的实验中, 我们默认将warmup中的epoch设置为5, 即先用5epoch将学习率从0增加到最大值, 再去做相应的学习率衰减。
2020-04-19 20:34:18 +08:00
## 3.batch_size的选择
2020-04-22 19:26:08 +08:00
batch_size是训练神经网络中的一个重要的超参数, 该值决定了一次将多少数据送入神经网络参与训练。在论文[1]中, 作者通过实验发现, 当batch_size的值与学习率的值呈线性关系时, 收敛精度几乎不受影响。在训练ImageNet数据时, 大部分的神经网络选择的初始学习率为0.1, batch_size是256, 所以根据实际的模型大小和显存情况, 可以将学习率设置为0.1\*k,batch_size设置为256\*k。
2020-04-19 20:34:18 +08:00
## 4.weight_decay的选择
2020-04-19 21:33:50 +08:00
过拟合是机器学习中常见的一个名词, 简单理解即为模型在训练数据上表现很好, 但在测试数据上表现较差, 在卷积神经网络中, 同样存在过拟合的问题, 为了避免过拟合, 很多正则方式被提出, 其中, weight_decay是其中一个广泛使用的避免过拟合的方式。Weight_decay等价于在最终的损失函数后添加L2正则化, L2正则化使得网络的权重倾向于选择更小的值, 最终整个网络中的参数值更趋向于0, 模型的泛化性能相应提高。在各大深度学习框架的实现中, 该值表达的含义是L2正则前的系数, 在paddle框架中, 该值的名称是l2_decay, 所以以下都称其为l2_decay。该系数越大, 表示加入的正则越强, 模型越趋于欠拟合状态。在训练ImageNet的任务中, 大多数的网络将该参数值设置为1e-4, 在一些小的网络如MobileNet系列网络中, 为了避免网络欠拟合, 该值设置为1e-5~4e-5之间。当然, 该值的设置也和具体的数据集有关系, 当任务的数据集较大时, 网络本身趋向于欠拟合状态, 可以将该值适当减小, 当任务的数据集较小时, 网络本身趋向于过拟合状态, 可以将该值适当增大。下表展示了MobileNetV1_x0_25在ImageNet-1k上使用不同l2_decay的精度情况。由于MobileNetV1_x0_25是一个比较小的网络, 所以l2_decay过大会使网络趋向于欠拟合状态, 所以在该网络中, 相对1e-4, 3e-5是更好的选择。
2020-04-19 20:34:18 +08:00
| 模型 | L2_decay | Train acc1/acc5 | Test acc1/acc5 |
2020-04-19 21:37:39 +08:00
|:--:|:--:|:--:|:--:|
2020-04-19 20:34:18 +08:00
| MobileNetV1_x0_25 | 1e-4 | 43.79%/67.61% | 50.41%/74.70% |
| MobileNetV1_x0_25 | 3e-5 | 47.38%/70.83% | 51.45%/75.45% |
另外, 该值的设置也和训练过程中是否使用其他正则化有关系。如果训练过程中的数据预处理比较复杂, 相当于训练任务变的更难, 可以将该值适当减小, 下表展示了在ImageNet-1k上, ResNet50在使用randaugment预处理方式后使用不同l2_decay的精度。容易观察到, 在任务变难后, 使用更小的l2_decay有助于模型精度的提升。
| 模型 | L2_decay | Train acc1/acc5 | Test acc1/acc5 |
2020-04-19 21:37:39 +08:00
|:--:|:--:|:--:|:--:|
2020-04-19 20:34:18 +08:00
| ResNet50 | 1e-4 | 75.13%/90.42% | 77.65%/93.79% |
| ResNet50 | 7e-5 | 75.56%/90.55% | 78.04%/93.74% |
2020-04-19 21:33:50 +08:00
综上所述, l2_decay可以根据具体的任务和模型去做相应的调整, 通常简单的任务或者较大的模型, 推荐使用较大的l2_decay,复杂的任务或者较小的模型, 推荐使用较小的l2_decay。
2020-04-19 20:34:18 +08:00
## 5.label_smoothing的选择
2020-04-19 21:33:50 +08:00
Label_smoothing是深度学习中的一种正则化方法, 其全称是 Label Smoothing Regularization(LSR), 即标签平滑正则化。在传统的分类任务计算损失函数时, 是将真实的one hot标签与神经网络的输出做相应的交叉熵计算, 而label_smoothing是将真实的one hot标签做一个标签平滑的处理, 使得网络学习的标签不再是一个hard label, 而是一个有概率值的soft label, 其中在类别对应的位置的概率最大, 其他位置概率是一个非常小的数。具体的计算方式参见论文[2]。在label_smoothing里, 有一个epsilon的参数值, 该值描述了将标签软化的程度, 该值越大, 经过label smoothing后的标签向量的标签概率值越小, 标签越平滑, 反之, 标签越趋向于hard label, 在训练ImageNet-1k的实验里通常将该值设置为0.1。
2020-04-19 20:34:18 +08:00
在训练ImageNet-1k的实验中, 我们发现, ResNet50大小级别及其以上的模型在使用label_smooting后, 精度有稳定的提升。下表展示了ResNet50_vd在使用label_smoothing前后的精度指标。
| 模型 | Use_label_smoothing | Test acc1 |
2020-04-19 21:37:39 +08:00
|:--:|:--:|:--:|
2020-04-19 20:34:18 +08:00
| ResNet50_vd | 0 | 77.9% |
| ResNet50_vd | 1 | 78.4% |
同时, 由于label_smoohing相当于一种正则方式, 在相对较小的模型上, 精度提升不明显甚至会有所下降, 下表展示了ResNet18在ImageNet-1k上使用label_smoothing前后的精度指标。可以明显看到, 在使用label_smoothing后, 精度有所下降。
| 模型 | Use_label_smoohing | Train acc1/acc5 | Test acc1/acc5 |
2020-04-19 21:37:39 +08:00
|:--:|:--:|:--:|:--:|
2020-04-19 20:34:18 +08:00
| ResNet18 | 0 | 69.81%/87.70% | 70.98%/89.92% |
2020-04-19 21:33:50 +08:00
| ResNet18 | 1 | 68.00%/86.56% | 70.81%/89.89% |
2020-04-19 20:34:18 +08:00
综上所述, 较大的模型使用label_smoohing可以有效提升模型的精度, 较小的模型使用label_smoohing可能会降低模型的精度, 所以在决定是否使用label_smoohing前, 需要评估模型的大小和任务的难易程度。
2020-04-22 19:26:08 +08:00
## 6.针对小模型更改图片的crop面积与拉伸变换程度
2020-04-19 21:33:50 +08:00
在ImageNet-1k数据的标准预处理中, random_crop函数中定义了scale和ratio两个值, 两个值分别确定了图片crop的大小和图片的拉伸程度, 其中scale的默认取值范围是0.08-1(lower_scale-upper_scale),ratio的默认取值范围是3/4-4/3(lower_ratio-upper_ratio)。在非常小的网络训练中, 此类数据增强会使得网络欠拟合, 导致精度有所下降。为了提升网络的精度, 可以使其数据增强变的更弱, 即增大图片的crop区域或者减弱图片的拉伸变换程度。我们可以分别通过增大lower_scale的值或缩小lower_ratio与upper_scale的差距来实现更弱的图片变换。下表列出了使用不同lower_scale训练MobileNetV2_x0_25的精度, 可以看到, 增大图片的crop区域面积后训练精度和验证精度均有提升。
2020-04-19 20:34:18 +08:00
| 模型 | Scale取值范围 | Train_acc1/acc5 | Test_acc1/acc5 |
2020-04-19 21:37:39 +08:00
|:--:|:--:|:--:|:--:|
2020-04-19 20:34:18 +08:00
| MobileNetV2_x0_25 | [0.08,1] | 50.36%/72.98% | 52.35%/75.65% |
| MobileNetV2_x0_25 | [0.2,1] | 54.39%/77.08% | 53.18%/76.14% |
## 7.使用数据增广方式提升精度
2020-04-19 21:42:57 +08:00
一般来说, 数据集的规模对性能影响至关重要, 但是图片的标注往往比较昂贵, 所以有标注的图片数量往往比较稀少, 在这种情况下, 数据的增广尤为重要。在训练ImageNet-1k的标准数据增广中, 主要使用了random_crop与random_flip两种数据增广方式, 然而, 近些年, 越来越多的数据增广方式被提出, 如cutout、mixup、cutmix、AutoAugment等。实验表明, 这些数据的增广方式可以有效提升模型的精度, 下表列出了ResNet50在8种不同的数据增广方式的表现, 可以看出, 相比baseline, 所有的数据增广方式均有收益, 其中cutmix是目前最有效的数据增广。更多数据增广的介绍请参考[**数据增广章节**](https://paddleclas.readthedocs.io/zh_CN/latest/advanced_tutorials/image_augmentation/ImageAugment.html)。
2020-04-19 20:34:18 +08:00
| 模型 | 数据增广方式 | Test top-1 |
2020-04-19 21:37:39 +08:00
|:--:|:--:|:--:|
2020-04-19 20:34:18 +08:00
| ResNet50 | 标准变换 | 77.31% |
| ResNet50 | Auto-Augment | 77.95% |
| ResNet50 | Mixup | 78.28% |
| ResNet50 | Cutmix | 78.39% |
| ResNet50 | Cutout | 78.01% |
| ResNet50 | Gridmask | 77.85% |
| ResNet50 | Random-Augment | 77.70% |
| ResNet50 | Random-Erasing | 77.91% |
| ResNet50 | Hide-and-Seek | 77.43% |
2020-04-22 19:24:18 +08:00
## 8. 通过train_acc和test_acc确定调优策略
2020-04-19 21:33:50 +08:00
在训练网络的过程中, 通常会打印每一个epoch的训练集准确率和验证集准确率, 二者刻画了该模型在两个数据集上的表现。通常来说, 训练集的准确率比验证集准确率微高或者二者相当是比较不错的状态。如果发现训练集的准确率比验证集高很多, 说明在这个任务上已经过拟合, 需要在训练过程中加入更多的正则, 如增大l2_decay的值, 加入更多的数据增广策略, 加入label_smoothing策略等; 如果发现训练集的准确率比验证集低一些, 说明在这个任务上可能欠拟合, 需要在训练过程中减弱正则效果, 如减小l2_decay的值, 减少数据增广方式, 增大图片crop区域面积, 减弱图片拉伸变换, 去除label_smoothing等。
2020-04-19 20:34:18 +08:00
2020-04-22 19:24:18 +08:00
## 9.通过已有的预训练模型提升自己的数据集的精度
2020-04-19 21:33:50 +08:00
在现阶段计算机视觉领域中, 加载预训练模型来训练自己的任务已成为普遍的做法, 相比从随机初始化开始训练, 加载预训练模型往往可以提升特定任务的精度。一般来说, 业界广泛使用的预训练模型是通过训练128万张图片1000类的ImageNet-1k数据集得到的, 该预训练模型的fc层权重是是一个k\*1000的矩阵, 其中k是fc层以前的神经元数, 在加载预训练权重时, 无需加载fc层的权重。在学习率方面, 如果您的任务训练的数据集特别小( 如小于1千张) , 我们建议你使用较小的初始学习率, 如0.001( batch_size:256,下同) , 以免较大的学习率破坏预训练权重。如果您的训练数据集规模相对较大( 大于10万) , 我们建议你尝试更大的初始学习率, 如0.01或者更大。
2020-04-19 20:34:18 +08:00
2020-04-21 22:32:17 +08:00
> 如果您觉得此文档对您有帮助, 欢迎star我们的项目: [https://github.com/PaddlePaddle/PaddleClas](https://github.com/PaddlePaddle/PaddleClas)
2020-04-19 20:34:18 +08:00
## 参考文献
2020-04-21 22:32:17 +08:00
[1]P. Goyal, P. Dolla ́r, R. B. Girshick, P. Noordhuis, L. Wesolowski, A. Kyrola, A. Tulloch, Y. Jia, and K. He. Accurate, large minibatch SGD: training imagenet in 1 hour. CoRR, abs/1706.02677, 2017.
2020-04-19 20:34:18 +08:00
2020-04-22 19:24:18 +08:00
[2]C.Szegedy,V.Vanhoucke,S.Ioffe,J.Shlens,andZ.Wojna. Rethinking the inception architecture for computer vision. CoRR, abs/1512.00567, 2015.