PaddleClas/docs/zh_CN/faq_series/faq_2020_s1.md

36 KiB
Raw Blame History

图像分类常见问题汇总 - 2020 第1季

目录

第1期

Q1.1: PaddleClas可以用来做什么?

APaddleClas是飞桨为工业界和学术界所准备的一个图像分类任务的工具集助力使用者训练出更好的视觉模型和应用落地。PaddleClas提供了基于图像分类的模型训练、评估、预测、部署全流程的服务方便大家更加高效地学习图像分类。具体地PaddleClas中包含如下一些特性 。

  • PaddleClas提供了24个系列的分类网络结构(ResNet, ResNet_vd, MobileNetV3, Res2Net, HRNet等)和训练配置122个预训练模型和性能评估与预测供大家选择并使用。
  • PaddleClas提供了TensorRT预测、python inference、c++ inference、Paddle-Lite预测部署等多种预测部署推理方案在方便在多种环境中进行部署推理。
  • PaddleClas提供了一种简单的SSLD知识蒸馏方案基于该方案蒸馏模型的识别准确率普遍提升3%以上。
  • PaddleClas支持AutoAugment、Cutout、Cutmix等8种数据增广算法详细介绍、代码复现和在统一实验环境下的效果评估。
  • PaddleClas支持在Windows/Linux/MacOS环境中基于CPU/GPU进行使用。

Q1.2: ResNet系列模型是什么有哪些模型为什么在服务器端如此推荐ResNet系列模型

A: ResNet中创新性地引入了残差结构通过堆叠多个残差结构从而构建了ResNet网络。实验表明使用残差块可以有效地提升收敛速度和精度PaddleClas中ResNet从小到达依次有包含18、34、50、101、152、200层的ResNet结构ResNet系列模型于2015年被提出在不同的应用场景中如分类、检测、分割等都已经验证过其有效性业界也早已对其进行了大量优化该系列模型在速度和精度方面都有着非常明显的优势对基于TensorRT以及FP16的预测支持得也很好因而推荐大家使用ResNet系列模型由于其模型所占存储相对较大因此常用于服务器端。更多关于ResNet模型的介绍可以参考论文Deep Residual Learning for Image Recognition

Q1.3: ResNet_vd和ResNet、ResNet_vc结构有什么区别呢

A:

ResNet_va至vd的结构如下图所示ResNet最早提出时为va结构在降采样残差模块这个部分在左边的特征变换通路中(Path A)第一个1x1卷积部分就行了降采样从而导致信息丢失卷积的kernel size为1stride为2输入特征图中 有部分特征没有参与卷积的计算在vb结构中把降采样的步骤从最开始的第一个1x1卷积调整到中间的3x3卷积中从而避免了信息丢失的问题PaddleClas中的ResNet模型默认就是ResNet_vbvc结构则是将最开始这个7x7的卷积变成3个3x3的卷积在感受野不变的情况下计算量和存储大小几乎不变而且实验证明精度相对于vb结构有所提升vd结构是修改了降采样残差模块右边的特征通路(Path B)。把降采样的过程由平均池化这个操作去替代了,这一系列的改进(va->vd)几乎没有带来新增的预测耗时结合适当的训练策略比如说标签平滑以及mixup数据增广精度可以提升高达2.7%。

Q1.4 如果确定使用ResNet系列模型怎么根据实际的场景需求选用不同的模型呢

A:

ResNet系列模型中相比于其他模型ResNet_vd模型在预测速度几乎不变的情况下精度有非常明显的提升因此推荐大家使用ResNet_vd系列模型。 下面给出了batch size=4的情况下在T4 GPU上不同模型的的预测耗时、flops、params与精度的变化曲线可以根据自己自己的实际部署场景中的需求去选择合适的模型如果希望模型存储大小尽可能小或者预测速度尽可能快则可以使用ResNet18_vd模型如果希望获得尽可能高的精度则建议使用ResNet152_vd或者ResNet200_vd模型。更多关于ResNet系列模型的介绍可以参考文档ResNet及其vd系列模型文档

  • 精度-预测速度变化曲线
  • 精度-params变化曲线
  • 精度-flops变化曲线

Q1.5 在网络中的block里conv-bn-relu是固定的形式吗

A: 在batch-norm出现之前主流的卷积神经网络的固定形式是conv-relu。在现阶段的卷积神经网络中conv-bn-relu是大部分网络中block的固定形式这样的设计是相对鲁棒的结构此外DenseNet中的block选用的是bn-relu-conv的形式ResNet-V2中也使用的是这种组合方式。在MobileNetV2中为了不丢失信息部分block中间的层没有使用relu激活函数选用的是conv-bn的形式。

Q1.6 ResNet34与ResNet50的区别

A: ResNet系列中有两种不同的block分别是basic-block和bottleneck-block堆叠较多这样的block组成了ResNet网络。basic-block是带有shortcut的两个3x3的卷积核的堆叠bottleneck-block是带有shortcut的1x1卷积核、3x3卷积核、1x1卷积核的堆叠所以basic-block中有两层bottleneck-block有三层。ResNet34和ResNet50中堆叠的block数相同但是堆叠的种类分别是basic-block和bottleneck-block。

Q1.7 大卷积核一定可以带来正向收益吗?

A: 不一定,将网络中的所有卷积核都增大未必会带来性能的提升,甚至会有有损性能,在论文MixConv: Mixed Depthwise Convolutional Kernels 中指出,在一定范围内提升卷积核大小对精度的提升有正向作用,但是超出后会有损精度。所以考虑到模型的大小、计算量等问题,一般不选用大的卷积核去设计网络。

第2期

Q2.1: PaddleClas如何训练自己的backbone

A:具体流程如下:

  • 首先在ppcls/modeling/architectures/文件夹下新建一个自己的模型结构文件即你自己的backbone模型搭建可以参考resnet.py;
  • 然后在ppcls/modeling/__init__.py中添加自己设计的backbone的类;
  • 其次配置训练的yaml文件此处可以参考configs/ResNet/ResNet50.yaml;
  • 最后启动训练即可。

Q2.2: 如何利用已有的模型和权重对自己的分类任务进行迁移?

A: 具体流程如下:

  • 首先好的预训练模型往往会有更好的迁移效果所以建议选用精度较高的预训练模型PaddleClas提供了一系列业界领先的预训练模型建议使用
  • 其次要根据迁移的数据集的规模来确定训练超参数一般超参数需要调试才可以寻找到一个局部最优值如果没有相关经验建议先从learning rate开始调起一般来说规模较小的数据集使用较小的learning rate如0.001另外建议学习率使用warmup策略避免过大的学习率破坏预训练模型的权重。在迁移过程中也可以设置backbone中不同层的学习率往往从网络的头部到尾补学习率逐渐减小效果较好。在数据集规模较小的时候也可以使用数据增强策略PaddleClas提供了8中强有力的数据增强策略为更高的精度保驾护航。
  • 训练结束后,可以反复迭代上述过程,直到寻找到局部最优值。

Q2.3: PaddleClas中configs下的默认参数适合任何一个数据集吗

A: PaddleClas中的configs下的默认参数是ImageNet-1k的训练参数这个参数并不适合所有的数据集具体数据集需要在此基础上进一步调试调试方法会在之后出一个单独的faq敬请期待。

Q2.4 PaddleClas中的不同的模型使用了不同的分辨率标配的应该是多少呢

A: PaddleClas严格遵循了论文作者的使用的分辨率。自2012年AlexNet以来大多数的卷积神经网络在ImageNet上训练的分辨率为224x224Google在设计InceptionV3的时候为了适应网络结构将分辨率调至299x299之后其推出的Xception、InceptionV4也是使用的该分辨率。此外在EfficeintNet中作者分析了不同规模的网络应该使用不同的分辨率所以该系列网络中每个不同大小的网络都使用了不同的分辨率。在实际使用场景中推荐使用默认的分辨率当然层数较深或者宽度较大的网络也可以尝试使用更大的分辨率。

Q2.5 PaddleClas中提供了很多ssld模型其应用的价值是

A: PaddleClas中提供了很多ssld预训练模型其通过半监督知识蒸馏的方法获得了更好的预训练权重在迁移任务或者下游视觉任务中无须替换结构文件、只需要替换精度更高的ssld预训练模型即可提升精度如在PaddleSeg中HRNet使用了ssld预训练模型的权重后精度大幅度超越业界同样的模型的精度在PaddleDetection中PP-YOLO使用了ssld预训练权重后在较高的baseline上仍有进一步的提升。使用ssld预训练权重做分类的迁移表现也很抢眼SSLD蒸馏策略部分介绍了知识蒸馏对于分类任务迁移的收益。

第3期

Q3.1: DenseNet模型相比于ResNet有什么改进呢有哪些特点或者应用场景呢

A: DenseNet相比于ResNet设计了一个更激进的密集连接机制通过考虑特征重用和旁路的设置进一步减少了参数量而且从一定程度上缓解了梯度弥散的问题因为引入了更加密集的连接因此模型更容易训练而且具有一定的正则化效果。在数据量不是很多的图像分类场景中DenseNet是一个不错的选择。更多关于DenseNet的介绍与系列模型可以参考DenseNet模型文档

Q3.2: DPN网络相比于DenseNet有哪些改进呢

ADPN的全称是Dual Path Networks即双通道网络。该网络是由DenseNet和ResNeXt结合的一个网络其证明了DenseNet能从靠前的层级中提取到新的特征而ResNeXt本质上是对之前层级中已提取特征的复用。作者进一步分析发现ResNeXt对特征有高复用率但冗余度低DenseNet能创造新特征但冗余度高。结合二者结构的优势作者设计了DPN网络。最终DPN网络在同样FLOPS和参数量下取得了比ResNeXt与DenseNet更好的结果。更多关于DPN的介绍与系列模型可以参考DPN模型文档

Q3.3: 怎么使用多个模型进行预测融合呢?

A 使用多个模型进行预测的时候建议首先将预训练模型导出为inference模型这样可以摆脱对网络结构定义的依赖可以参考模型导出脚本进行模型导出,之后再参考inference模型预测脚本进行预测即可在这里需要根据自己使用模型的数量创建多个predictor。

Q3.4: PaddleClas中怎么增加自己的数据增广方法呢

A

  • 对于单张图像的增广,可以参考基于单张图片的数据增广脚本,参考ResizeImage或者CropImage等数据算子的写法,创建一个新的类,然后在__call__中,实现对应的增广方法即可。
  • 对于一个batch图像的增广可以参考基于batch数据的数据增广脚本,参考MixupOperator或者CutmixOperator等数据算子的写法,创建一个新的类,然后在__call__中,实现对应的增广方法即可。

Q3.5: 怎么进一步加速模型训练过程呢?

A

  • 可以使用自动混合精度进行训练这在精度几乎无损的情况下可以有比较明显的速度收益以ResNet50为例PaddleClas中使用自动混合精度训练的配置文件可以参考ResNet50_fp16.yml,主要就是需要在标准的配置文件中添加以下几行
use_fp16: True
amp_scale_loss: 128.0
use_dynamic_loss_scaling: True
  • 可以开启dali将数据预处理方法放在GPU上运行在模型比较小时reader耗时占比更高一些开启dali会带来比较明显的精度收益在训练的时候添加-o use_dali=True即可使用dali进行训练更多关于dali 安装与介绍可以参考:dali安装教程

第4期

Q4.1: PaddlePaddle 的模型文件都有哪几种?

A:

  • PaddlePaddle保存的模型相关文件有两类
  • 一类是用于推理部署的文件,包括后缀名为“pdiparams”、“model”的文件,其中“pdiparams”文件存储了模型参数信息,“model”文件存储了模型网络结构信息,对于推理部署文件,使用paddle.jit.savepaddle.jit.load接口进行保存、加载。
  • 另一类模型相关文件则是用于训练调优过程中,包括后缀名为“pdparams”和“pdopt”的文件,其中“pdparams”文件存储了训练过程中的模型参数信息,“pdopt”文件存储了模型训练过程中的优化器信息,对于训练调优文件,使用paddle.savepaddle.load接口进行保存、加载。
  • 利用推理部署文件,即可构建模型网络结构并加载模型参数,用于预测,利用训练调优文件,即可加载模型参数、优化器信息,用于恢复训练过程。

Q4.2: HRNet的创新点体现在哪里

A:

  • 在图像分类领域,大部分神经网络的设计思想是提取图像的高维特征,具体来说,通常输入图像的空间分辨率较高,通过多层卷积、池化,可以逐步得到空间分辨率更低,但是维度更高的特征图,然后可用于分类等场景。
  • 然而HRNet的作者认为这种逐步降低空间分辨率的设计思想并不适合目标检测(图像区域层次的分类任务)、语义分割(图像像素层次的分类任务)等场景,因为空间分辨率在逐步降低的过程中,会丢失很多信息,最终学习得到的特征难以表达原始图像在高空间分辨率的信息,而区域层次分类任务和像素层次分类任务都对空间精度十分敏感。
  • 因此HRNet的作者提出了并联不同空间分辨率特征图的思想,与此相对,VGG等神经网络则是通过不同的卷积池化层来串联不同空间分辨率的特征图。并且,HRNet通过连接同等深度、不同空间分辨率的特征图,使得不同空间分辨率特征图的信息可以得到充分交换,具体的网络结构如下图所示。

Q4.3: 在HRNet中对于不同空间分辨率的特征图之间是如何建立连接的

A:

  • 首先,在HRNet中,对特征图使用stride23 × 3卷积,可以得到低空间分辨率但是为度更高的特征图;而对低空间分辨率特征图先使用1 × 1卷积进行通道数匹配,再使用最近邻插值的方式进行上采样,即可得到与高空间分辨率特征图相同空间分辨率、通道数的特征图;而对于相同空间分辨率的特征图,直接进行恒等映射即可。具体如下图所示。

Q4.4: 模型中的“SE”表示什么意思

A:

  • SE表示该模型使用了SE结构。SE结构来自于2017年ImageNet分类比赛的冠军方案Squeeze-and-Excitation NetworksSENetSENet提出的SE结构可以迁移到任何其他网络中。其创新点是通过额外学习scale向量作为权重作用到特征图上,scale向量维度与特征图通道数相同,学习到的scale向量中每个维度上的数值表示对该维度特征通道的增强或减弱的大小,以此达到对重要的特征通道进行增强,不重要特征通道减弱的效果,从而让提取的特征指向性更强。

Q4.5: SE结构具体如何实现的

A:

  • SE结构具体如上图所示,首先,Ftr表示常规的卷积操作,XU则是Ftr的输入与输出的特征图,在得到特征图U后,使用FsqFex操作求得scale向量,scale向量维度为C,与U通道数相同,因此可以通过乘积的方式作用到U上,进而得到X~
  • 具体地,FsqGlobal Average Pooling操作,SENet作者将其称之为Squeeze,因为该操作可以将UC × H × W压缩到C × 1 × 1,对Fsq的输出再做Fex操作。
  • Fex操作表示两次全连接,作者将该操作称为Excitation。其中第一次全连接将向量的维度从1 × 1 × C压缩到1 × 1 × C/r,然后使用RELU,再通过第二次全连接将向量的维度恢复到C,这样操作的目的是为了减小计算量,SENet作者通过实验得出结论:在r=16时可以获得增益与计算量之间的平衡。
  • 对于Fsq部分,关键是求得C维的向量,因此不局限于使用Global Average Pooling操作,SENet作者认为,最终求得的scale是按通道分别作用于U的,因此需要基于对应通道的信息计算对应的scale,故使用了最简单的Global Average Pooling操作,最终求得的scale向量表示了不同通道之间的分布关系,而忽略了同一个通道中的分布关系。
  • 对于Fex部分,其作用是为了在每一个mini batch上的训练来求得基于所有训练数据的分布。因为我们的训练是在mini batch上进行的,而基于全部训练数据求得的scale才是最佳的,使用Fex部分,可以通过在每个mini batch上的训练来求得更为逼近全部训练数据的scale

第5期

Q5.1 如何选择优化器?

A:自深度学习发展以来就有很多关于优化器的研究者工作优化器的目的是为了让损失函数尽可能的小从而找到合适的权重来完成某项任务。目前业界主要用到的优化器有SGD、RMSProp、Adam、AdaDelt等其中由于带momentum的SGD优化器广泛应用于学术界和工业界(此处仅限于分类任务)所以我们发布的模型也大都使用该优化器来实现损失函数的梯度下降。带momentum的SGD优化器有两个劣势其一是收敛速度慢其二是初始学习率的设置需要依靠大量的经验然而如果初始学习率设置得当并且迭代轮数充足该优化器也会在众多的优化器中脱颖而出使得其在验证集上获得更高的准确率。一些自适应学习率的优化器如Adam、RMSProp等收敛速度往往比较快但是最终的收敛精度会稍差一些。如果追求更快的收敛速度我们推荐使用这些自适应学习率的优化器如果追求更高的收敛精度我们推荐使用带momentum的SGD优化器。具体到数据集来说

  • ImageNet-1k: 建议只使用带momentum的SGD优化器。

  • 其他数据集默认加载ImageNet-1k预训练: 加载预训练模型的时候可以考虑使用Adam等优化器效果可能会更好但使用带momentum的SGD优化器是绝对是比较不错的方案。

另外为了进一步加速训练Lookahead优化器也是一个不错的选择在ImageNet-1k上其可以保证在更快的收敛速度下拥有相同的收敛精度但在部分数据集上表现不太稳定需要进一步调参。

Q5.2 如何设置初始学习率以及学习率下降策略?

A:学习率的选择往往和优化器以及数据和任务有关系。学习率决定了网络种权重更新的速度。学习率越低,损失函数的变化速度就越慢。虽然使用低学习率可以确保不会错过任何局部极小值,但也意味着将花费更长的时间来进行收敛,特别是在被困在高原区域的情况下。

在整个训练过程中我们不能使用同样的学习率来更新权重否则无法到达最优点所以需要在训练过程中调整学习率的大小。在训练初始阶段由于权重处于随机初始化的状态损失函数下降较快所以可以设置一个较大的学习率。在训练后期由于权重已经接近最优值较大的学习率无法进一步寻找最优值所以需要设置一个较小的学习率。至于学习率下降策略很多研究者或者从业人员使用的学习率下降方式是piecewise_decay(step_decay)即阶梯式下降学习率此外很多研究者也提出了学习率的其他下降方式如polynomial_decay多项式下降、exponential_decay指数下降,cosine_decay余弦下降其中cosine_decay无需调整超参数鲁棒性也比较高所以成为现在提高模型精度首选的学习率下降方式。

Cosine_decay和piecewise_decay的学习率变化曲线如下图所示容易观察到在整个训练过程中cosine_decay都保持着较大的学习率所以其收敛较为缓慢但是最终的收敛效果较peicewise_decay更好一些。

另外从图中我们也可以看到cosine_decay中只有少数轮数使用了较小的学习率这样会影响到最终的精度所以为了使得cosine_decay发挥更好的效果建议迭代更多的轮数。

最后如果使用较大的batch_size训练神经网络时建议您使用warmup策略。Warmup策略顾名思义就是让学习率先预热一下在训练初期不直接使用最大的学习率而是用一个逐渐增大的学习率去训练网络当学习率增大到最高点时再去衰减学习率的值。实验表明在batch_size较大时warmup可以稳定提升模型的精度。具体到数据集来说

  • ImageNet-1k:建议batch-size大小为256、初始学习率为0.1cosine-decay下降学习率。

  • 其他数据集默认加载ImageNet-1k预训练: 数据集规模越大初始学习率也越大但最好不要超过0.1batch-size为256时候数据集规模越小初始学习率也越小当数据集较小时使用warmup也会带来一定的精度提升学习率下降策略仍旧推荐cosine-decay。

Q5.3 如何设置batch-size的大小

A:Batch_size是训练神经网络中的一个重要的超参数该值决定了一次将多少数据送入神经网络中训练。之前有研究者通过实验发现当batch_size的值与学习率的值呈线性关系时收敛精度几乎不受影响。在训练ImageNet-1k数据时大部分的神经网络选择的初始学习率为0.1batch_size是256。具体到数据集来说

  • ImageNet-1k: 学习率设置为0.1*k,batch_size设置为256*k。

  • 其他数据集默认加载ImageNet-1k预训练: 可以根据实际情况设置如更小的学习率但在调整学习率或者batch-size时要同时调整另外一个值。

Q5.4 weight_decay是什么怎么设置

A:过拟合是机器学习中常见的一个名词简单理解即为模型在训练数据上表现很好但在测试数据上表现较差在图像分类问题中同样存在过拟合的问题为了避免过拟合很多正则方式被提出其中weight_decay是其中一个广泛使用的避免过拟合的方式。当使用SGD优化器时 weight_decay等价于在最终的损失函数后添加L2正则化L2正则化使得网络的权重倾向于选择更小的值最终整个网络中的参数值更趋向于0模型的泛化性能相应提高。在各大深度学习框架的实现中该值表达的含义是L2正则前的系数在飞桨框架中该值的名称是L2Decay所以以下都称其为L2Decay。该系数越大表示加入的正则越强模型越趋于欠拟合状态。具体到数据集来说

  • ImageNet-1k大多数的网络将该参数值设置为1e-4在一些小的网络如MobileNet系列网络中为了避免网络欠拟合该值设置为1e-5~4e-5之间。下表展示了MobileNetV1_x0_25在ImageNet-1k上使用不同L2Decay的精度情况。由于MobileNetV1_x0_25是一个比较小的网络所以L2Decay过大会使网络趋向于欠拟合状态所以在该网络中相对1e-43e-5是更好的选择。
模型 L2Decay Train acc1/acc5 Test acc1/acc5
MobileNetV1_x0_25 1e-4 43.79%/67.61% 50.41%/74.70%
MobileNetV1_x0_25 3e-5 47.38%/70.83% 51.45%/75.45%

另外该值的设置也和训练过程中是否使用其他正则化有关系。如果训练过程中的数据预处理比较复杂相当于训练任务变的更难可以将该值适当减小下表展示了在ImageNet-1k上ResNet50在使用RandAugment预处理方式后使用不同L2Decay的精度。容易观察到在任务变难后使用更小的l2_decay有助于模型精度的提升。

模型 L2Decay Train acc1/acc5 Test acc1/acc5
ResNet50 1e-4 75.13%/90.42% 77.65%/93.79%
ResNet50 7e-5 75.56%/90.55% 78.04%/93.74%
  • 其他数据集默认加载ImageNet-1k预训练在做迁移任务的时候最好不要改变训练ImageNet-1k时的L2Decay的值即训练得到预训练时的L2Decay值每个backbone对应的L2Decay值都在相应的训练yaml配置文件中一般的数据集只改变学习率足够。

Q5.5 是否使用label_smoothing如何设置其中的参数值

A:Label_smoothing是深度学习中的一种正则化方法其全称是 Label Smoothing Regularization(LSR)即标签平滑正则化。在传统的分类任务计算损失函数时是将真实的one hot标签与神经网络的输出做相应的交叉熵计算而label_smoothing是将真实的one hot标签做一个标签平滑的处理使得网络学习的标签不再是一个hard label而是一个有概率值的soft label其中在类别对应的位置的概率最大其他位置概率是一个非常小的数。在label_smoothing中epsilon参数描述了将标签软化的程度该值越大经过label smoothing后的标签向量的标签概率值越小标签越平滑反之标签越趋向于hard label。具体到数据集来说

  • ImageNet-1k在训练ImageNet-1k的实验里通常将该值设置为0.1ResNet50大小级别及其以上的模型在使用label_smooting后精度有稳定的提升。下表展示了ResNet50_vd在使用label_smoothing前后的精度指标。
模型 Use_label_smoothing(0.1) Test acc1
ResNet50_vd 0 77.9%
ResNet50_vd 1 78.4%

同时由于label_smoohing相当于一种正则方式在相对较小的模型上精度提升不明显甚至会有所下降下表展示了ResNet18在ImageNet-1k上使用label_smoothing前后的精度指标。可以明显看到在使用label_smoothing后精度有所下降。

模型 Use_label_smoohing(0.1) Train acc1/acc5 Test acc1/acc5
ResNet18 0 69.81%/87.70% 70.98%/89.92%
ResNet18 1 68.00%/86.56% 70.81%/89.89%

如何在较小的模型中也可以让label-smoothing有效这里有一个技巧即在Global-Average-Pool后接一个1000-2000大小的全连接层该技巧可以与label-smoothing同时作用发挥更好的效果。

  • 其他数据集默认加载ImageNet-1k预训练使用label-smooth之后往往都会提升精度规模越小的数据集epsilon值可以越大在一些规模较小的细粒度图像中最佳模型通常是在该值设置到0.4-0.5时获得的。

Q5.6 默认的图像预处理中random-crop还可以调整吗怎么调整

A:在ImageNet-1k数据的标准预处理中random_crop函数中定义了scale和ratio两个值两个值分别确定了图片crop的大小和图片的拉伸程度其中scale的默认取值范围是0.08-1(lower_scale-upper_scale),ratio的默认取值范围是3/4-4/3(lower_ratio-upper_ratio)。在非常小的网络训练中此类数据增强会使得网络欠拟合导致精度有所下降。为了提升网络的精度可以使其数据增强变的更弱即增大图片的crop区域或者减弱图片的拉伸变换程度。可以分别通过增大lower_scale的值或缩小lower_ratio与upper_scale的差距来实现更弱的图片变换。具体到数据集来说

  • ImageNet-1k不是特别小的网络建议只用默认值特别小的网络可以调大lower_scale的值增大crop区域面积或者缩小ratio值的范围减弱图像伸缩变换特别大的网络可以调小lower_scale的值减小crop面积或者增大ratio值的范围增强图像伸缩变换。下表列出了使用不同lower_scale训练MobileNetV2_x0_25的精度可以看到增大图片的crop区域面积后训练精度和验证精度均有提升。
模型 Scale取值范围 Train_acc1/acc5 Test_acc1/acc5
MobileNetV2_x0_25 [0.08,1] 50.36%/72.98% 52.35%/75.65%
MobileNetV2_x0_25 [0.2,1] 54.39%/77.08% 53.18%/76.14%
  • 其他数据集默认加载ImageNet-1k预训练建议使用默认值如果过拟合较严重可以考虑调小lower_scale的值减小crop面积或者增大ratio值的范围增强图像伸缩变换

Q5.7 目前常用数据增广有哪些?如何选择?

A:一般来说数据集的规模对性能影响至关重要但是图片的标注往往比较昂贵所以有标注的图片数量往往比较稀少在这种情况下数据的增广尤为重要。在训练ImageNet-1k的标准数据增广中主要使用了Random_Crop与Random_Flip两种数据增广方式然而近些年越来越多的数据增广方式被提出如cutout、mixup、cutmix、AutoAugment等。实验表明这些数据的增广方式可以有效提升模型的精度。具体到数据集来说

  • ImageNet-1k下表列出了ResNet50在8种不同的数据增广方式的表现可以看出相比baseline所有的数据增广方式均有收益其中cutmix是目前最有效的数据增广。更多数据增广的介绍请参考数据增广章节
模型 数据增广方式 Test top-1
ResNet50 标准变换 77.31%
ResNet50 Auto-Augment 77.95%
ResNet50 Mixup 78.28%
ResNet50 Cutmix 78.39%
ResNet50 Cutout 78.01%
ResNet50 Gridmask 77.85%
ResNet50 Random-Augment 77.70%
ResNet50 Random-Erasing 77.91%
ResNet50 Hide-and-Seek 77.43%
  • 其他数据集默认加载ImageNet-1k预训练在其他数据集中除了使用Auto-Augment一般都会有精度的提升Auto-Augment会针对每一个数据集搜索的独立超参数该超参数决定了数据如何处理所以默认的ImageNet-1k的超参数并不适合所有的数据集当然您可以使用Random-Augment来替代Auto-Augment。其他策略可以正常使用对于比较难的任务或者比较小的网络建议不要使用较强的数据增广。

此外,多种数据增广也可以叠加使用,当数据集较为简单或数据规模较小时,叠加数据增广可以进一步提升精度。

Q5.8 如何通过train_acc和test_acc确定调优策略

A:在训练网络的过程中通常会打印每一个epoch的训练集准确率和验证集准确率二者刻画了该模型在两个数据集上的表现。通常来说训练集的准确率反映了经过Random-Crop后的数据的精度由于数据经过Random-Crop后数据往往较难所以训练集的准确率和验证集的准确率往往不是一个概念。

  • ImageNet-1k通常来说训练集准确率比验证集准确率微高或者二者相当是比较不错的状态。如果发现训练集的准确率比验证集高很多说明在这个任务上已经过拟合需要在训练过程中加入更多的正则如增大L2Decay的值加入更多的数据增广策略加入label_smoothing策略等如果发现训练集的准确率比验证集低一些说明在这个任务上可能欠拟合需要在训练过程中减弱正则效果如减小L2Decay的值减少数据增广方式增大图片crop区域面积减弱图片拉伸变换去除label_smoothing等。

  • 其他数据集默认加载ImageNet-1k预训练基本和训练ImageNet-1k的调整策略相当此外在其他数据集上如果模型趋向于过拟合train acc远大于test acc状态也可以使用更优的预训练权重PaddleClas为常用的网络提供了SSLD的蒸馏预训练权重其比ImageNet-1k的权重更优您可以优先选择。

  • 【备注】 不太建议根据loss来重新调整训练策略在使用不同的数据增广后train loss的大小差异较大如使用Cutmix或者RandAugment后train loss会大于test loss当数据增广策略减弱后train loss会小于test loss所以较难调整。

Q5.9 如何通过预训练模型提升自己的数据集的精度?

A:在现阶段图像识别领域中加载预训练模型来训练自己的任务已成为普遍的做法相比从随机初始化开始训练加载预训练模型往往可以提升特定任务的精度。一般来说业界广泛使用的预训练模型是通过训练128万张图片1000类的ImageNet-1k数据集得到的该预训练模型的fc层权重是是一个k*1000的矩阵其中k是fc层以前的神经元数在加载预训练权重时无需加载fc层的权重。在学习率方面如果您的任务训练的数据集特别小如小于1千张我们建议你使用较小的初始学习率如0.001batch_size:256,下同以免较大的学习率破坏预训练权重。如果您的训练数据集规模相对较大大于10万我们建议你尝试更大的初始学习率如0.01或者更大。如果目标数据集较小,也可以冻结一些浅层的权重。此外,如果训练一个特定垂类的小数据集,也可以先在相关的大的数据集上训练一个预训练权重,再在该权重上用较小的学习率微调模型。

Q5.10 现有的策略已经让模型的精度趋于饱和,如何进一步提升特定模型的精度?

A:如果现有的策略不能进一步提升模型的精度,说明在现有数据集和现有的策略下,模型几乎到达饱和状态,这里提供两种进一步提升模型精度的方法。

  • 挖掘相关数据用在现有数据集上训练饱和的模型去对相关的数据做预测将置信度较高的数据打label后加入训练集进一步训练如此循环操作可进一步提升模型的精度。

  • 知识蒸馏可以先使用一个较大的模型在该数据集上训练一个精度较高的teacher model然后使用该teacher model去教导一个Student model其中Student model即为目标模型。PaddleClas提供了百度自研的SSLD知识蒸馏方案即使在ImageNet-1k这么有挑战的分类任务上其也能稳定提升3%以上。SSLD知识蒸馏的的章节请参考SSLD知识蒸馏