2021-05-10 17:17:37 +08:00
|
|
|
|
# 教程 1:如何微调模型
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-05-10 17:17:37 +08:00
|
|
|
|
已经证明,在 ImageNet 数据集上预先训练的分类模型对于其他数据集和其他下游任务有很好的效果。
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-07-14 15:06:50 +08:00
|
|
|
|
该教程提供了如何将 [Model Zoo](https://github.com/open-mmlab/mmclassification/blob/master/docs/model_zoo.md) 中提供的预训练模型用于其他数据集,已获得更好的效果。
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-05-10 17:17:37 +08:00
|
|
|
|
在新数据集上微调模型分为两步:
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-05-10 17:17:37 +08:00
|
|
|
|
- 按照 [教程 2:如何增加新数据集](new_dataset.md) 添加对新数据集的支持。
|
|
|
|
|
- 按照本教程中讨论的内容修改配置文件
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
假设我们现在有一个在 ImageNet-2012 数据集上训练好的 ResNet-50 模型,并且希望在
|
|
|
|
|
CIFAR-10 数据集上进行模型微调,我们需要修改配置文件中的五个部分。
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-05-10 17:17:37 +08:00
|
|
|
|
## 继承基础配置
|
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
首先,创建一个新的配置文件 `configs/tutorial/resnet50_finetune_cifar.py` 来保存我们的配置,当然,这个文件名可以自由设定。
|
|
|
|
|
|
|
|
|
|
为了重用不同配置之间的通用部分,我们支持从多个现有配置中继承配置。要微调
|
|
|
|
|
ResNet-50 模型,新配置需要继承 `_base_/models/resnet50.py` 来搭建模型的基本结构。
|
|
|
|
|
为了使用 CIFAR10 数据集,新的配置文件可以直接继承 `_base_/datasets/cifar10.py`。
|
|
|
|
|
而为了保留运行相关设置,比如训练调整器,新的配置文件需要继承
|
|
|
|
|
`_base_/default_runtime.py`。
|
|
|
|
|
|
|
|
|
|
要继承以上这些配置文件,只需要把下面一段代码放在我们的配置文件开头。
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
_base_ = [
|
|
|
|
|
'../_base_/models/resnet50.py',
|
|
|
|
|
'../_base_/datasets/cifar10.py', '../_base_/default_runtime.py'
|
|
|
|
|
]
|
|
|
|
|
```
|
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
除此之外,你也可以不使用继承,直接编写完整的配置文件,例如
|
|
|
|
|
[`configs/lenet/lenet5_mnist.py`](https://github.com/open-mmlab/mmclassification/blob/master/configs/lenet/lenet5_mnist.py)。
|
|
|
|
|
|
|
|
|
|
## 修改模型
|
|
|
|
|
|
|
|
|
|
在进行模型微调是,我们通常希望在主干网络(backbone)加载预训练模型,再用我们的数据集训练一个新的分类头(head)。
|
|
|
|
|
|
|
|
|
|
为了在主干网络加载预训练模型,我们需要修改主干网络的初始化设置,使用
|
|
|
|
|
`Pretrained` 类型的初始化函数。另外,在初始化设置中,我们使用
|
|
|
|
|
`prefix='backbone'` 来告诉初始化函数移除权重文件中键值名称的前缀,比如把
|
|
|
|
|
`backbone.conv1` 变成 `conv1`。方便起见,我们这里使用一个在线的权重文件链接,它
|
|
|
|
|
会在训练前自动下载对应的文件,你也可以提前下载这个模型,然后使用本地路径。
|
|
|
|
|
|
|
|
|
|
接下来,新的配置文件需要按照新数据集的类别数目来修改分类头的配置。只需要修改分
|
|
|
|
|
类头中的 `num_classes` 设置即可。
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
```python
|
|
|
|
|
model = dict(
|
|
|
|
|
backbone=dict(
|
|
|
|
|
init_cfg=dict(
|
|
|
|
|
type='Pretrained',
|
|
|
|
|
checkpoint='https://download.openmmlab.com/mmclassification/v0/resnet/resnet50_8xb32_in1k_20210831-ea4938fc.pth',
|
|
|
|
|
prefix='backbone',
|
|
|
|
|
)),
|
|
|
|
|
head=dict(num_classes=10),
|
|
|
|
|
)
|
|
|
|
|
```
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
```{tip}
|
|
|
|
|
这里我们只需要设定我们想要修改的部分配置,其他配置将会自动从我们的父配置文件中获取。
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
另外,有时我们在进行微调时会希望冻结主干网络前面几层的参数,这么做有助于在后续
|
|
|
|
|
训练中,保持网络从预训练权重中获得的提取低阶特征的能力。在 MMClassification 中,
|
|
|
|
|
这一功能可以通过简单的一个 `frozen_stages` 参数来实现。比如我们需要冻结前两层网
|
|
|
|
|
络的参数,只需要在上面的配置中添加一行:
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
model = dict(
|
2021-09-28 18:05:50 +08:00
|
|
|
|
backbone=dict(
|
|
|
|
|
frozen_stages=2,
|
|
|
|
|
init_cfg=dict(
|
|
|
|
|
type='Pretrained',
|
|
|
|
|
checkpoint='https://download.openmmlab.com/mmclassification/v0/resnet/resnet50_8xb32_in1k_20210831-ea4938fc.pth',
|
|
|
|
|
prefix='backbone',
|
|
|
|
|
)),
|
|
|
|
|
head=dict(num_classes=10),
|
|
|
|
|
)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
```{note}
|
|
|
|
|
目前还不是所有的网络都支持 `frozen_stages` 参数,在使用之前,请先检查
|
|
|
|
|
[文档](https://mmclassification.readthedocs.io/zh_CN/latest/api.html#module-mmcls.models.backbones)
|
|
|
|
|
以确认你所使用的主干网络是否支持。
|
2021-04-26 13:58:18 +08:00
|
|
|
|
```
|
|
|
|
|
|
2021-05-10 17:17:37 +08:00
|
|
|
|
## 修改数据集
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
当针对一个新的数据集进行微调时,我们通常都需要修改一些数据集相关的配置。比如这
|
|
|
|
|
里,我们就需要把 CIFAR-10 数据集中的图像大小从 32 缩放到 224 来配合 ImageNet 上
|
|
|
|
|
预训练模型的输入。这一需要可以通过修改数据集的预处理流水线(pipeline)来实现。
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
img_norm_cfg = dict(
|
2021-09-28 18:05:50 +08:00
|
|
|
|
mean=[125.307, 122.961, 113.8575],
|
|
|
|
|
std=[51.5865, 50.847, 51.255],
|
|
|
|
|
to_rgb=False,
|
|
|
|
|
)
|
2021-04-26 13:58:18 +08:00
|
|
|
|
train_pipeline = [
|
|
|
|
|
dict(type='RandomCrop', size=32, padding=4),
|
|
|
|
|
dict(type='RandomFlip', flip_prob=0.5, direction='horizontal'),
|
2021-09-28 18:05:50 +08:00
|
|
|
|
dict(type='Resize', size=224),
|
2021-04-26 13:58:18 +08:00
|
|
|
|
dict(type='Normalize', **img_norm_cfg),
|
|
|
|
|
dict(type='ImageToTensor', keys=['img']),
|
|
|
|
|
dict(type='ToTensor', keys=['gt_label']),
|
2021-09-28 18:05:50 +08:00
|
|
|
|
dict(type='Collect', keys=['img', 'gt_label']),
|
|
|
|
|
]
|
|
|
|
|
test_pipeline = [
|
|
|
|
|
dict(type='Resize', size=224),
|
2021-04-26 13:58:18 +08:00
|
|
|
|
dict(type='Normalize', **img_norm_cfg),
|
|
|
|
|
dict(type='ImageToTensor', keys=['img']),
|
2021-09-28 18:05:50 +08:00
|
|
|
|
dict(type='Collect', keys=['img']),
|
|
|
|
|
]
|
|
|
|
|
data = dict(
|
|
|
|
|
train=dict(pipeline=train_pipeline),
|
|
|
|
|
val=dict(pipeline=test_pipeline),
|
|
|
|
|
test=dict(pipeline=test_pipeline),
|
|
|
|
|
)
|
2021-04-26 13:58:18 +08:00
|
|
|
|
```
|
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
## 修改训练策略设置
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-05-10 17:17:37 +08:00
|
|
|
|
用于微调任务的超参数与默认配置不同,通常只需要较小的学习率和较少的训练时间。
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
|
|
|
|
```python
|
2021-05-10 17:17:37 +08:00
|
|
|
|
# 用于批大小为 128 的优化器学习率
|
2021-04-26 13:58:18 +08:00
|
|
|
|
optimizer = dict(type='SGD', lr=0.01, momentum=0.9, weight_decay=0.0001)
|
|
|
|
|
optimizer_config = dict(grad_clip=None)
|
2021-09-28 18:05:50 +08:00
|
|
|
|
# 学习率衰减策略
|
|
|
|
|
lr_config = dict(policy='step', step=[15])
|
|
|
|
|
runner = dict(type='EpochBasedRunner', max_epochs=200)
|
|
|
|
|
log_config = dict(interval=100)
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
## 开始训练
|
|
|
|
|
|
|
|
|
|
现在,我们完成了用于微调的配置文件,完整的文件如下:
|
|
|
|
|
|
|
|
|
|
```python
|
|
|
|
|
_base_ = [
|
|
|
|
|
'../_base_/models/resnet50.py',
|
|
|
|
|
'../_base_/datasets/cifar10_bs16.py', '../_base_/default_runtime.py'
|
|
|
|
|
]
|
|
|
|
|
|
|
|
|
|
# 模型设置
|
|
|
|
|
model = dict(
|
|
|
|
|
backbone=dict(
|
|
|
|
|
frozen_stages=2,
|
|
|
|
|
init_cfg=dict(
|
|
|
|
|
type='Pretrained',
|
|
|
|
|
checkpoint='https://download.openmmlab.com/mmclassification/v0/resnet/resnet50_8xb32_in1k_20210831-ea4938fc.pth',
|
|
|
|
|
prefix='backbone',
|
|
|
|
|
)),
|
|
|
|
|
head=dict(num_classes=10),
|
|
|
|
|
)
|
|
|
|
|
|
|
|
|
|
# 数据集设置
|
|
|
|
|
img_norm_cfg = dict(
|
|
|
|
|
mean=[125.307, 122.961, 113.8575],
|
|
|
|
|
std=[51.5865, 50.847, 51.255],
|
|
|
|
|
to_rgb=False,
|
|
|
|
|
)
|
|
|
|
|
train_pipeline = [
|
|
|
|
|
dict(type='RandomCrop', size=32, padding=4),
|
|
|
|
|
dict(type='RandomFlip', flip_prob=0.5, direction='horizontal'),
|
|
|
|
|
dict(type='Resize', size=224),
|
|
|
|
|
dict(type='Normalize', **img_norm_cfg),
|
|
|
|
|
dict(type='ImageToTensor', keys=['img']),
|
|
|
|
|
dict(type='ToTensor', keys=['gt_label']),
|
|
|
|
|
dict(type='Collect', keys=['img', 'gt_label']),
|
|
|
|
|
]
|
|
|
|
|
test_pipeline = [
|
|
|
|
|
dict(type='Resize', size=224),
|
|
|
|
|
dict(type='Normalize', **img_norm_cfg),
|
|
|
|
|
dict(type='ImageToTensor', keys=['img']),
|
|
|
|
|
dict(type='Collect', keys=['img']),
|
|
|
|
|
]
|
|
|
|
|
data = dict(
|
|
|
|
|
train=dict(pipeline=train_pipeline),
|
|
|
|
|
val=dict(pipeline=test_pipeline),
|
|
|
|
|
test=dict(pipeline=test_pipeline),
|
|
|
|
|
)
|
|
|
|
|
|
|
|
|
|
# 训练策略设置
|
|
|
|
|
# 用于批大小为 128 的优化器学习率
|
|
|
|
|
optimizer = dict(type='SGD', lr=0.01, momentum=0.9, weight_decay=0.0001)
|
|
|
|
|
optimizer_config = dict(grad_clip=None)
|
|
|
|
|
# 学习率衰减策略
|
|
|
|
|
lr_config = dict(policy='step', step=[15])
|
2021-04-26 13:58:18 +08:00
|
|
|
|
runner = dict(type='EpochBasedRunner', max_epochs=200)
|
|
|
|
|
log_config = dict(interval=100)
|
|
|
|
|
```
|
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
接下来,我们使用一台 8 张 GPU 的电脑来训练我们的模型,指令如下:
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
2021-09-28 18:05:50 +08:00
|
|
|
|
```shell
|
|
|
|
|
bash tools/dist_train.sh configs/tutorial/resnet50_finetune_cifar.py 8
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
当然,我们也可以使用单张 GPU 来进行训练,使用如下命令:
|
|
|
|
|
|
|
|
|
|
```shell
|
|
|
|
|
python tools/train.py configs/tutorial/resnet50_finetune_cifar.py
|
|
|
|
|
```
|
|
|
|
|
|
|
|
|
|
但是如果我们使用单张 GPU 进行训练的话,需要在数据集设置部分作如下修改:
|
2021-04-26 13:58:18 +08:00
|
|
|
|
|
|
|
|
|
```python
|
2021-09-28 18:05:50 +08:00
|
|
|
|
data = dict(
|
|
|
|
|
samples_per_gpu=128,
|
|
|
|
|
train=dict(pipeline=train_pipeline),
|
|
|
|
|
val=dict(pipeline=test_pipeline),
|
|
|
|
|
test=dict(pipeline=test_pipeline),
|
|
|
|
|
)
|
2021-04-26 13:58:18 +08:00
|
|
|
|
```
|
2021-09-28 18:05:50 +08:00
|
|
|
|
|
|
|
|
|
这是因为我们的训练策略是针对批次大小(batch size)为 128 设置的。在父配置文件中,
|
|
|
|
|
设置了 `samples_per_gpu=16`,如果使用 8 张 GPU,总的批次大小就是 128。而如果使
|
|
|
|
|
用单张 GPU,就必须手动修改 `samples_per_gpu=128` 来匹配训练策略。
|