1 Star 0 Fork 0

Lindsay.Lu丶 / PaddleSeg

加入 Gitee
与超过 1200万 开发者一起发现、参与优秀开源项目,私有仓库也完全免费 :)
免费加入
克隆/下载
solver_group.md 2.99 KB
一键复制 编辑 原始数据 按行查看 历史
wuzewu 提交于 2019-11-26 17:44 . Fix lr warmup bug

cfg.SOLVER

SOLVER Group定义所有和训练优化相关的配置

LR

初始学习率

默认值

0.1



LR_WARMUP

学习率是否经过warmup过程,如果设置为True,则学习率会从0开始,经过LR_WARMUP_STEPS步后线性增长到指定的初始学习率

默认值

False



LR_WARMUP_STEPS

学习率warmup步数

默认值

2000



LR_POLICY

学习率的衰减策略,支持poly piecewise cosine三种策略

默认值

poly

示例

  • 当使用poly衰减时,假设初始学习率为0.1,训练总步数为10000,则在power分别为0.4 0.8 1 1.2 1.6时,衰减曲线如下图:

    • power = 1 衰减曲线为直线
    • power > 1 衰减曲线内凹
    • power < 1 衰减曲线外凸


  • 当使用poly衰减时,假设初始学习率为0.1,训练总步数为10000,power为1,开启了LR_WARMUP,且LR_WARMUP_STEP为2000时,衰减曲线如下图:


  • 当使用piecewise衰减时,假设初始学习率为0.1,GAMMA为0.9,总EPOCH数量为100,DECAY_EPOCH为[10, 20],衰减曲线如下图:


  • 当使用cosine衰减时,假设初始学习率为0.1,总EPOCH数量为100,衰减曲线如下图:




POWER

学习率Poly下降指数,仅当策略为LR_POLICYpoly时有效

默认值

0.9



GAMMA

学习率piecewise下降指数,仅当策略为LR_POLICYpiecewise时有效

默认值

0.1



DECAY_EPOCH

学习率piecewise下降间隔,仅当策略为LR_POLICYpiecewise时有效

默认值

[10, 20]



WEIGHT_DECAY

L2正则化系数

默认值

0.00004



BEGIN_EPOCH

起始EPOCH值

默认值

0



NUM_EPOCHS

训练EPOCH数

默认值

30(需要根据实际需求进行调整)



SNAPSHOT

训练时,保存模型的间隔(单位为EPOCH)

默认值

10(意味着每训练10个EPOCH保存一次模型)



loss

训练时选择的损失函数, 支持softmax_loss(sotfmax with cross entroy loss), dice_loss(dice coefficient loss), bce_loss(binary cross entroy loss)三种损失函数。 其中dice_lossbce_loss仅在两类分割问题中适用,softmax_loss不能与dice_lossbce_loss组合,dice_loss可以和bce_loss组合使用。使用示例如下:

['softmax_loss']['dice_loss','bce_loss']

默认值

['softmax_loss']



马建仓 AI 助手
尝试更多
代码解读
代码找茬
代码优化
1
https://gitee.com/lindsaylu/PaddleSeg.git
git@gitee.com:lindsaylu/PaddleSeg.git
lindsaylu
PaddleSeg
PaddleSeg
develop

搜索帮助

344bd9b3 5694891 D2dac590 5694891