PaddleClas/docs/zh_CN/faq_series/faq_2022_s1.md

2.7 KiB
Raw Blame History

PaddleClas 相关常见问题汇总 - 2022 第 1 季

写在前面

  • 我们收集整理了开源以来在 issues 和用户群中的常见问题并且给出了简要解答,旨在为广大用户提供一些参考,也希望帮助大家少走一些弯路。

  • 图像分类、识别、检索领域大佬众多,模型和论文更新速度也很快,本文档回答主要依赖有限的项目实践,难免挂一漏万,如有遗漏和不足,也希望有识之士帮忙补充和修正,万分感谢。

目录

1. 理论篇

2. 实战篇

2.1 训练与评估共性问题

Q2.1.1 如何在训练时冻结某些层的参数?

A:目前有三种方法可以使用

  1. 手动修改模型代码,使用paddle.ParamAttr(learning_rate=0.0)将冻结层的学习率设置为0.0,具体用法可以查看paddle.ParamAttr文档。如下代码可以将self.conv层的weight参数学习率设置为0.0。

    self.conv = Conv2D(
         in_channels=num_channels,
         out_channels=num_filters,
         kernel_size=filter_size,
         stride=stride,
         padding=(filter_size - 1) // 2,
         groups=groups,
         weight_attr=ParamAttr(learning_rate=0.0), # <--在这里设置
         bias_attr=False,
         data_format=data_format)
    
  2. 手动设置冻结层的stop_gradient=True可参考此链接。使用此方法后梯度回传到strop_gradient的层之后停止反向回传即之前的层的权重也会被固定。

  3. 在loss.backward()之后optimizer.step()之前使用nn.Layer或者paddle.Tensor的clear_gradients()方法。对要固定的层或参数调用此方法不用影响loss回传。如下代码可以清空某一层的梯度或者是某一层的某个参数张量的梯度

    import paddle
    linear = paddle.nn.Linear(3, 4)
    x = paddle.randn([4, 3])
    y = linear(x)
    loss = y.sum().backward()
    
    print(linear.weight.grad)
    print(linear.bias.grad)
    linear.clear_gradients()  # 清空整个Linear层的梯度包括linear.weight和linear.bias
    # linear.weight.clear_grad()  # 只清空Linear.weight的梯度
    print(linear.weight.grad)
    print(linear.bias.grad)