pytorch model.named_parameters() ,model.parameters() ,model.state_dict().items()
1、model.named_parameters(),迭代打印model.named_parameters()将会打印每一次迭代元素的名字和param。

for name, param in model.named_parameters():
	print(name,param.requires_grad)
	param.requires_grad=False

2、model.parameters(),迭代打印model.parameters()将会打印每一次迭代元素的param而不会打印名字,这是他和named_parameters的区别,两者都可以用来改变requires_grad的属性。

for  param in model.parameters():
	print(param.requires_grad)
	param.requires_grad=False

3、model.state_dict().items() 每次迭代打印该选项的话,会打印所有的name和param,但是这里的所有的param都是requires_grad=False,没有办法改变requires_grad的属性,所以改变requires_grad的属性只能通过上面的两种方式。

for name, param in model.state_dict().items():
	print(name,param.requires_grad=True)

4、改变了requires_grad之后要修改optimizer的属性。

  optimizer = optim.SGD(
            filter(lambda p: p.requires_grad, model.parameters()),   #只更新requires_grad=True的参数
            lr=cfg.TRAIN.LR,
            momentum=cfg.TRAIN.MOMENTUM,
            weight_decay=cfg.TRAIN.WD,
            nesterov=cfg.TRAIN.NESTEROV
        )

5、随机参数初始化

def init_weights(m):
    if isinstance(m, nn.Conv2d):
        torch.nn.init.xavier_uniform(m.weight.data)
model.apply(init_weights)

本文地址:https://blog.csdn.net/weixin_42394925/article/details/110849553