解决训练时报错:ValueError: loaded state dict contains a parameter group that doesn’t match the size of optimizer’s group
大致意思:加载状态 dict 包含一个与优化器组的大小不匹配的参数组
暂时解决:直接注释掉 optimizer.load_state_dict(ckpt[‘optimizer’])
因为
if cfg.BACKBONE.TRAIN_EPOCH == epoch:
logger.info(‘start training backbone.’)
optimizer, lr_scheduler = build_opt_lr(model.module, epoch)
logger.info(“model\n{}”.format(describe(model.module)))
当epoch=10 的时候,optimizer会重新生成。

Logo

华为开发者空间,是为全球开发者打造的专属开发空间,汇聚了华为优质开发资源及工具,致力于让每一位开发者拥有一台云主机,基于华为根生态开发、创新。

更多推荐