mmdetection-3.x学习笔记——RTMDet模型配置文件(rtmdet_l_8xb32-300e_coco.py)

2023-03-28 Views mmdetection-3.x1316字7 min read

RTMDet 是基于YOLOX再次开发的检测器,检测速度更快,精度更高,还可以做实例分割和旋转目标检测。

_base_ = [ # 继承默认配置
    '../_base_/default_runtime.py', '../_base_/schedules/schedule_1x.py',
    '../_base_/datasets/coco_detection.py', './rtmdet_tta.py'
]
model = dict(
    type='RTMDet',
    data_preprocessor=dict( # 数据预处理器相关配置
        # 数据预处理器的主要功能是把数据和模型从 CPU 搬运到 GPU,然后在GPU中对数据进行归一化操作,也可以实现MixUp、Mosaic 一类“将多张图片融合成一张图片”的数据增强操作,不过在这里设置batch_augments=None,即不做批量增强,因为RTMDet实现了新的CachedMosaic和CachedMixUp,采用缓存技术实现Mosaic和MixUp等需要多张图片的数据增广技术,把图片放在缓存中,训练时就不需要加载多张图片就可以实现Mosaic和MixUp,极大地提高数据加载速度。
        # 另外注意,根据mmdetection的设计原则,一般单张图像的数据增广流程会把它们组成train_pipeline传入到CocoDataset数据集类中,而多张图像的增广流程则在数据预处理器中实现,因为这里是DataLoader之后、模型之前,这里有一个batch的数据,可以很容易实现“将多张图片融合成一张图片”的数据增强
        type='DetDataPreprocessor',
        mean=[103.53, 116.28, 123.675], # 用于数据归一化的均值
        std=[57.375, 57.12, 58.395], # 用于数据归一化的标准差
        bgr_to_rgb=False, # 是否交换图片通道,这里为否
        batch_augments=None),
    backbone=dict( 
        # 基于5*5的深度可分离卷积重新设计了主干网络,采用深度可分离卷积必须额外接一个逐点卷积层 (point-wise convolution),这样模型的深度增加,因此设计团队适当减少主干网络的每个stage的基础模块并稍微增加模型宽度。
        type='CSPNeXt',
        arch='P5',
        expand_ratio=0.5,
        deepen_factor=1,
        widen_factor=1,
        channel_attention=True,
        norm_cfg=dict(type='SyncBN'),
        act_cfg=dict(type='SiLU', inplace=True)),
    neck=dict(
        # 一个更heavier的颈部网络用于融合多尺度特征对检测不同尺度的目标十分有必要。设计团队提高颈部网络基础模块的膨胀比,以将更多参数和计算放到颈部,提高模型能力。
        type='CSPNeXtPAFPN',
        in_channels=[256, 512, 1024],
        out_channels=256,
        num_csp_blocks=3,
        expand_ratio=0.5,
        norm_cfg=dict(type='SyncBN'),
        act_cfg=dict(type='SiLU', inplace=True)),
    bbox_head=dict(
        # 不同尺度特征图共享检测头,但是得配备不同的Batch Normalization (BN)层。
        type='RTMDetSepBNHead',
        num_classes=80,
        in_channels=256,
        stacked_convs=2,
        feat_channels=256,
        anchor_generator=dict(
            type='MlvlPointGenerator', offset=0, strides=[8, 16, 32]),
        bbox_coder=dict(type='DistancePointBBoxCoder'),
        loss_cls=dict(
            type='QualityFocalLoss',
            use_sigmoid=True,
            beta=2.0,
            loss_weight=1.0),
        loss_bbox=dict(type='GIoULoss', loss_weight=2.0),
        with_objectness=False,
        exp_on_reg=True,
        share_conv=True,
        pred_kernel_size=1,
        norm_cfg=dict(type='SyncBN'),
        act_cfg=dict(type='SiLU', inplace=True)),
    train_cfg=dict(
        # 重新设计了动态软标签分配策略
        assigner=dict(type='DynamicSoftLabelAssigner', topk=13),
        allowed_border=-1,
        pos_weight=-1,
        debug=False),
    test_cfg=dict( # 后处理
        nms_pre=30000, # NMS 前的 box 数
        min_bbox_size=0, # box 允许的最小尺寸
        score_thr=0.001, # bbox 的分数阈值
        nms=dict(type='nms', iou_threshold=0.65), # NMS 类型及阈值
        max_per_img=300), # NMS 后要保留的 box 数量
)

# 替换默认的train_pipeline,RTMDet采用两段式训练策略,通过PipelineSwitchHook实现
# 两段式训练是指将训练过程分成两个阶段,第一阶段采用强数据增广Mosaic和MixUp,第二阶段采用弱数据增广,即不用Mosaic和MixUp。YOLOX还在第二阶段引入L1损失函数来微调回归分支。在这里,设计团队不再引入L1损失函数,将第一阶段数据增广时混合图片数量提高到8,且第一阶段设置为280epochs;在最后20个epochs中采用 Large Scale Jittering (LSJ)做为数据增广。两段式训练的原因是强数据增广虽然能够提高模型的泛化性,但是会导致训练数据分布与真实分布不一致,所以需要在第二阶段使用与真实分布更接近的数据进行微调。
train_pipeline = [
    dict(
        type='LoadImageFromFile',
        file_client_args={{_base_.file_client_args}}),
    dict(type='LoadAnnotations', with_bbox=True),
    dict(type='CachedMosaic', img_scale=(640, 640), pad_val=114.0),
    dict(
        type='RandomResize',
        scale=(1280, 1280),
        ratio_range=(0.1, 2.0),
        keep_ratio=True),
    dict(type='RandomCrop', crop_size=(640, 640)),
    dict(type='YOLOXHSVRandomAug'),
    dict(type='RandomFlip', prob=0.5),
    dict(type='Pad', size=(640, 640), pad_val=dict(img=(114, 114, 114))),
    dict(
        type='CachedMixUp',
        img_scale=(640, 640),
        ratio_range=(1.0, 1.0),
        max_cached_images=20,
        pad_val=(114, 114, 114)),
    dict(type='PackDetInputs')
]

train_pipeline_stage2 = [
    dict(
        type='LoadImageFromFile',
        file_client_args={{_base_.file_client_args}}),
    dict(type='LoadAnnotations', with_bbox=True),
    dict(
        type='RandomResize',
        scale=(640, 640),
        ratio_range=(0.1, 2.0),
        keep_ratio=True),
    dict(type='RandomCrop', crop_size=(640, 640)),
    dict(type='YOLOXHSVRandomAug'),
    dict(type='RandomFlip', prob=0.5),
    dict(type='Pad', size=(640, 640), pad_val=dict(img=(114, 114, 114))),
    dict(type='PackDetInputs')
]

# 替换test_pipeline
test_pipeline = [
    dict(
        type='LoadImageFromFile',
        file_client_args={{_base_.file_client_args}}),
    dict(type='Resize', scale=(640, 640), keep_ratio=True),
    dict(type='Pad', size=(640, 640), pad_val=dict(img=(114, 114, 114))),
    dict(
        type='PackDetInputs',
        meta_keys=('img_id', 'img_path', 'ori_shape', 'img_shape',
                   'scale_factor'))
]

train_dataloader = dict(
    batch_size=32,
    num_workers=10,
    batch_sampler=None,
    pin_memory=True,
    dataset=dict(pipeline=train_pipeline))
val_dataloader = dict(
    batch_size=5, num_workers=10, dataset=dict(pipeline=test_pipeline))
test_dataloader = val_dataloader

max_epochs = 300
stage2_num_epochs = 20
base_lr = 0.004
interval = 10

train_cfg = dict(
    max_epochs=max_epochs,
    val_interval=interval,
    dynamic_intervals=[(max_epochs - stage2_num_epochs, 1)])

val_evaluator = dict(proposal_nums=(100, 1, 10))
test_evaluator = val_evaluator

# optimizer
optim_wrapper = dict(
    _delete_=True,
    type='OptimWrapper',
    optimizer=dict(type='AdamW', lr=base_lr, weight_decay=0.05),
    paramwise_cfg=dict(
        norm_decay_mult=0, bias_decay_mult=0, bypass_duplicate=True))

# learning rate
param_scheduler = [
    dict(
        type='LinearLR',
        start_factor=1.0e-5,
        by_epoch=False,
        begin=0,
        end=1000),
    dict(
        # use cosine lr from 150 to 300 epoch
        type='CosineAnnealingLR',
        eta_min=base_lr * 0.05,
        begin=max_epochs // 2,
        end=max_epochs,
        T_max=max_epochs // 2,
        by_epoch=True,
        convert_to_iter_based=True),
]

# hooks
default_hooks = dict(
    checkpoint=dict(
        interval=interval,
        max_keep_ckpts=3  # only keep latest 3 checkpoints
    ))
custom_hooks = [
    dict(
        type='EMAHook',
        ema_type='ExpMomentumEMA',
        momentum=0.0002,
        update_buffers=True,
        priority=49),
    dict(
        type='PipelineSwitchHook',
        switch_epoch=max_epochs - stage2_num_epochs,
        switch_pipeline=train_pipeline_stage2)
]

EOF