Shortcuts

备注

您正在阅读 MMClassification 0.x 版本的文档。MMClassification 0.x 会在 2022 年末被切换为次要分支。建议您升级到 MMClassification 1.0 版本,体验更多新特性和新功能。请查阅 MMClassification 1.0 的安装教程迁移教程以及更新日志

教程 6:如何自定义优化策略

在本教程中,我们将介绍如何在运行自定义模型时,进行构造优化器、定制学习率及动量调整策略、梯度裁剪、梯度累计以及用户自定义优化方法等。

构造 PyTorch 内置优化器

MMClassification 支持 PyTorch 实现的所有优化器,仅需在配置文件中,指定 “optimizer” 字段。 例如,如果要使用 “SGD”,则修改如下。

optimizer = dict(type='SGD', lr=0.0003, weight_decay=0.0001)

要修改模型的学习率,只需要在优化器的配置中修改 lr 即可。 要配置其他参数,可直接根据 PyTorch API 文档 进行。

备注

配置文件中的 ‘type’ 不是构造时的参数,而是 PyTorch 内置优化器的类名。

例如,如果想使用 Adam 并设置参数为 torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False), 则需要进行如下修改

optimizer = dict(type='Adam', lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False)

定制学习率调整策略

定制学习率衰减曲线

深度学习研究中,广泛应用学习率衰减来提高网络的性能。要使用学习率衰减,可以在配置中设置 lr_confg 字段。

比如在默认的 ResNet 网络训练中,我们使用阶梯式的学习率衰减策略,配置文件为:

lr_config = dict(policy='step', step=[100, 150])

在训练过程中,程序会周期性地调用 MMCV 中的 StepLRHook 来进行学习率更新。

此外,我们也支持其他学习率调整方法,如 CosineAnnealingPoly 等。详情可见 这里

  • ConsineAnnealing:

    lr_config = dict(policy='CosineAnnealing', min_lr_ratio=1e-5)
    
  • Poly:

    lr_config = dict(policy='poly', power=0.9, min_lr=1e-4, by_epoch=False)
    

定制学习率预热策略

在训练的早期阶段,网络容易不稳定,而学习率的预热就是为了减少这种不稳定性。通过预热,学习率将会从一个很小的值逐步提高到预定值。

在 MMClassification 中,我们同样使用 lr_config 配置学习率预热策略,主要的参数有以下几个:

  • warmup : 学习率预热曲线类别,必须为 ‘constant’、 ‘linear’, ‘exp’ 或者 None 其一, 如果为 None, 则不使用学习率预热策略。

  • warmup_by_epoch : 是否以轮次(epoch)为单位进行预热。

  • warmup_iters : 预热的迭代次数,当 warmup_by_epoch=True 时,单位为轮次(epoch);当 warmup_by_epoch=False 时,单位为迭代次数(iter)。

  • warmup_ratio : 预测的初始学习率 lr = lr * warmup_ratio

例如:

  1. 迭代次数线性预热

    lr_config = dict(
        policy='CosineAnnealing',
        by_epoch=False,
        min_lr_ratio=1e-2,
        warmup='linear',
        warmup_ratio=1e-3,
        warmup_iters=20 * 1252,
        warmup_by_epoch=False)
    
  2. 轮次指数预热

    lr_config = dict(
        policy='CosineAnnealing',
        min_lr=0,
        warmup='exp',
        warmup_iters=5,
        warmup_ratio=0.1,
        warmup_by_epoch=True)
    

小技巧

配置完成后,可以使用 MMClassification 提供的 学习率可视化工具 画出对应学习率调整曲线。

定制动量调整策略

MMClassification 支持动量调整器根据学习率修改模型的动量,从而使模型收敛更快。

动量调整程序通常与学习率调整器一起使用,例如,以下配置用于加速收敛。 更多细节可参考 CyclicLrUpdaterCyclicMomentumUpdater

这里是一个用例:

lr_config = dict(
    policy='cyclic',
    target_ratio=(10, 1e-4),
    cyclic_times=1,
    step_ratio_up=0.4,
)
momentum_config = dict(
    policy='cyclic',
    target_ratio=(0.85 / 0.95, 1),
    cyclic_times=1,
    step_ratio_up=0.4,
)

参数化精细配置

一些模型可能具有一些特定于参数的设置以进行优化,例如 BatchNorm 层不添加权重衰减或者对不同的网络层使用不同的学习率。 在 MMClassification 中,我们通过 optimizerparamwise_cfg 参数进行配置,可以参考MMCV

  • 使用指定选项

    MMClassification 提供了包括 bias_lr_multbias_decay_multnorm_decay_multdwconv_decay_multdcn_offset_lr_multbypass_duplicate 选项,指定相关所有的 baisnormdwconvdcnbypass 参数。例如令模型中所有的 BN 不进行参数衰减:

    optimizer = dict(
        type='SGD',
        lr=0.8,
        weight_decay=1e-4,
        paramwise_cfg=dict(norm_decay_mult=0.)
    )
    
  • 使用 custom_keys 指定参数

    MMClassification 可通过 custom_keys 指定不同的参数使用不同的学习率或者权重衰减,例如对特定的参数不使用权重衰减:

    paramwise_cfg = dict(
        custom_keys={
            'backbone.cls_token': dict(decay_mult=0.0),
            'backbone.pos_embed': dict(decay_mult=0.0)
        })
    
    optimizer = dict(
        type='SGD',
        lr=0.8,
        weight_decay=1e-4,
        paramwise_cfg=paramwise_cfg)
    

    对 backbone 使用更小的学习率与衰减系数:

    optimizer = dict(
        type='SGD',
        lr=0.8,
        weight_decay=1e-4,
        # backbone 的 'lr' and 'weight_decay' 分别为 0.1 * lr 和 0.9 * weight_decay
        paramwise_cfg = dict(custom_keys={'backbone': dict(lr_mult=0.1, decay_mult=0.9)}))
    

梯度裁剪与梯度累计

除了 PyTorch 优化器的基本功能,我们还提供了一些对优化器的增强功能,例如梯度裁剪、梯度累计等,参考 MMCV

梯度裁剪

在训练过程中,损失函数可能接近于一些异常陡峭的区域,从而导致梯度爆炸。而梯度裁剪可以帮助稳定训练过程,更多介绍可以参见该页面

目前我们支持在 optimizer_config 字段中添加 grad_clip 参数来进行梯度裁剪,更详细的参数可参考 PyTorch 文档

用例如下:

# norm_type: 使用的范数类型,此处使用范数2。
optimizer_config = dict(grad_clip=dict(max_norm=35, norm_type=2))

当使用继承并修改基础配置方式时,如果基础配置中 grad_clip=None,需要添加 _delete_=True。有关 _delete_ 可以参考教程 1:如何编写配置文件。案例如下:

_base_ = [./_base_/schedules/imagenet_bs256_coslr.py]

optimizer_config = dict(grad_clip=dict(max_norm=35, norm_type=2), _delete_=True, type='OptimizerHook')
# 当 type 为 'OptimizerHook',可以省略 type;其他情况下,此处必须指明 type='xxxOptimizerHook'。

梯度累计

计算资源缺乏缺乏时,每个训练批次的大小(batch size)只能设置为较小的值,这可能会影响模型的性能。

可以使用梯度累计来规避这一问题。

用例如下:

data = dict(samples_per_gpu=64)
optimizer_config = dict(type="GradientCumulativeOptimizerHook", cumulative_iters=4)

表示训练时,每 4 个 iter 执行一次反向传播。由于此时单张 GPU 上的批次大小为 64,也就等价于单张 GPU 上一次迭代的批次大小为 256,也即:

data = dict(samples_per_gpu=256)
optimizer_config = dict(type="OptimizerHook")

备注

当在 optimizer_config 不指定优化器钩子类型时,默认使用 OptimizerHook

用户自定义优化方法

在学术研究和工业实践中,可能需要使用 MMClassification 未实现的优化方法,可以通过以下方法添加。

备注

本部分将修改 MMClassification 源码或者向 MMClassification 框架添加代码,初学者可跳过。

自定义优化器

1. 定义一个新的优化器

一个自定义的优化器可根据如下规则进行定制

假设我们想添加一个名为 MyOptimzer 的优化器,其拥有参数 a, bc。 可以创建一个名为 mmcls/core/optimizer 的文件夹,并在目录下的一个文件,如 mmcls/core/optimizer/my_optimizer.py 中实现该自定义优化器:

from mmcv.runner import OPTIMIZERS
from torch.optim import Optimizer


@OPTIMIZERS.register_module()
class MyOptimizer(Optimizer):

    def __init__(self, a, b, c):

2. 注册优化器

要注册上面定义的上述模块,首先需要将此模块导入到主命名空间中。有两种方法可以实现它。

  • 修改 mmcls/core/optimizer/__init__.py,将其导入至 optimizer 包;再修改 mmcls/core/__init__.py 以导入 optimizer

    创建 mmcls/core/optimizer/__init__.py 文件。 新定义的模块应导入到 mmcls/core/optimizer/__init__.py 中,以便注册器能找到新模块并将其添加:

# 在 mmcls/core/optimizer/__init__.py 中
from .my_optimizer import MyOptimizer # MyOptimizer 是我们自定义的优化器的名字

__all__ = ['MyOptimizer']
# 在 mmcls/core/__init__.py 中
...
from .optimizer import *  # noqa: F401, F403
  • 在配置中使用 custom_imports 手动导入

custom_imports = dict(imports=['mmcls.core.optimizer.my_optimizer'], allow_failed_imports=False)

mmcls.core.optimizer.my_optimizer 模块将会在程序开始阶段被导入,MyOptimizer 类会随之自动被注册。 注意,只有包含 MyOptmizer 类的包会被导入。mmcls.core.optimizer.my_optimizer.MyOptimizer 不会 被直接导入。

3. 在配置文件中指定优化器

之后,用户便可在配置文件的 optimizer 域中使用 MyOptimizer。 在配置中,优化器由 “optimizer” 字段定义,如下所示:

optimizer = dict(type='SGD', lr=0.02, momentum=0.9, weight_decay=0.0001)

要使用自定义的优化器,可以将该字段更改为

optimizer = dict(type='MyOptimizer', a=a_value, b=b_value, c=c_value)

自定义优化器构造器

某些模型可能具有一些特定于参数的设置以进行优化,例如 BatchNorm 层的权重衰减。

虽然我们的 DefaultOptimizerConstructor 已经提供了这些强大的功能,但可能仍然无法覆盖需求。 此时我们可以通过自定义优化器构造函数来进行其他细粒度的参数调整。

from mmcv.runner.optimizer import OPTIMIZER_BUILDERS


@OPTIMIZER_BUILDERS.register_module()
class MyOptimizerConstructor:

    def __init__(self, optimizer_cfg, paramwise_cfg=None):
        pass

    def __call__(self, model):
        ...    # 在这里实现自己的优化器构造器。
        return my_optimizer

这里是我们默认的优化器构造器的实现,可以作为新优化器构造器实现的模板。

Read the Docs v: mmcls-0.x
Versions
latest
stable
mmcls-1.x
mmcls-0.x
dev
Downloads
pdf
html
epub
On Read the Docs
Project Home
Builds

Free document hosting provided by Read the Docs.