解決pytorch 的state_dict()拷貝問題
先說結論
model.state_dict()
是淺拷貝,返回的參數(shù)仍然會隨著網絡的訓練而變化。
應該使用deepcopy(model.state_dict())
,或將參數(shù)及時序列化到硬盤。
再講故事,前幾天在做一個模型的交叉驗證訓練時,通過model.state_dict()保存了每一組交叉驗證模型的參數(shù),后根據效果選擇準確率最佳的模型load回去,結果每一次都是最后一個模型,從地址來看,每一個保存的state_dict()都具有不同的地址,但進一步發(fā)現(xiàn)state_dict()下的各個模型參數(shù)的地址是共享的,而我又使用了in-place的方式重置模型參數(shù),進而導致了上述問題。
補充:pytorch中state_dict的理解
在PyTorch中,state_dict是一個Python字典對象(在這個有序字典中,key是各層參數(shù)名,value是各層參數(shù)),包含模型的可學習參數(shù)(即權重和偏差,以及bn層的的參數(shù)) 優(yōu)化器對象(torch.optim)也具有state_dict,其中包含有關優(yōu)化器狀態(tài)以及所用超參數(shù)的信息。
其實看了如下代碼的輸出應該就懂了
import torch import torch.nn as nn import torchvision import numpy as np from torchsummary import summary # Define model class TheModelClass(nn.Module): def __init__(self): super(TheModelClass, self).__init__() self.conv1 = nn.Conv2d(3, 6, 5) self.pool = nn.MaxPool2d(2, 2) self.conv2 = nn.Conv2d(6, 16, 5) self.fc1 = nn.Linear(16 * 5 * 5, 120) self.fc2 = nn.Linear(120, 84) self.fc3 = nn.Linear(84, 10) def forward(self, x): x = self.pool(F.relu(self.conv1(x))) x = self.pool(F.relu(self.conv2(x))) x = x.view(-1, 16 * 5 * 5) x = F.relu(self.fc1(x)) x = F.relu(self.fc2(x)) x = self.fc3(x) return x # Initialize model model = TheModelClass() # Initialize optimizer optimizer = torch.optim.SGD(model.parameters(), lr=0.001, momentum=0.9) # Print model's state_dict print("Model's state_dict:") for param_tensor in model.state_dict(): print(param_tensor,"\t", model.state_dict()[param_tensor].size()) # Print optimizer's state_dict print("Optimizer's state_dict:") for var_name in optimizer.state_dict(): print(var_name, "\t", optimizer.state_dict()[var_name])
輸出如下:
Model's state_dict: conv1.weight torch.Size([6, 3, 5, 5]) conv1.bias torch.Size([6]) conv2.weight torch.Size([16, 6, 5, 5]) conv2.bias torch.Size([16]) fc1.weight torch.Size([120, 400]) fc1.bias torch.Size([120]) fc2.weight torch.Size([84, 120]) fc2.bias torch.Size([84]) fc3.weight torch.Size([10, 84]) fc3.bias torch.Size([10]) Optimizer's state_dict: state {} param_groups [{'lr': 0.001, 'momentum': 0.9, 'dampening': 0, 'weight_decay': 0, 'nesterov': False, 'params': [2238501264336, 2238501329800, 2238501330016, 2238501327136, 2238501328576, 2238501329728, 2238501327928, 2238501327064, 2238501330808, 2238501328288]}]
我是剛接觸深度學西的小白一個,希望大佬可以為我指出我的不足,此博客僅為自己的筆記?。。?!
補充:pytorch保存模型時報錯***object has no attribute 'state_dict'
定義了一個類BaseNet并實例化該類:
net=BaseNet()
保存net時報錯 object has no attribute 'state_dict'
torch.save(net.state_dict(), models_dir)
原因是定義類的時候不是繼承nn.Module類,比如:
class BaseNet(object): def __init__(self):
把類定義改為
class BaseNet(nn.Module): def __init__(self): super(BaseNet, self).__init__()
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。
相關文章
Python如何把Spark數(shù)據寫入ElasticSearch
這篇文章主要介紹了Python如何把Spark數(shù)據寫入ElasticSearch,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友可以參考下2020-04-04Python+OpenCV實現(xiàn)圖片及視頻中選定區(qū)域顏色識別
這篇文章主要為大家詳細介紹了如何利用Python+OpenCV實現(xiàn)圖片及視頻中選定區(qū)域顏色識別功能,文中的示例代碼講解詳細,感興趣的可以了解一下2022-07-07Python調整圖像hue值結合ImageEnhance庫以實現(xiàn)色調增強
這篇文章主要介紹了Python調整圖像hue值結合ImageEnhance庫以實現(xiàn)色調增強,PIL庫中的ImageEnhance類可用于圖像增強,可以調節(jié)圖像的亮度、對比度、色度和銳度,通過RGB到HSV的變換加調整可以對圖像的色調進行調整,需要的朋友可以參考下2023-09-09Numpy中的數(shù)組搜索中np.where方法詳細介紹
這篇文章主要介紹了Numpy中的數(shù)組搜索中np.where方法詳細介紹,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧2021-01-01