亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Pytorch中retain_graph的坑及解決

 更新時間:2023年02月21日 09:08:40   作者:Longlongaaago  
這篇文章主要介紹了Pytorch中retain_graph的坑及解決方案,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教

Pytorch中retain_graph的坑

在查看SRGAN源碼時有如下?lián)p失函數(shù),其中設(shè)置了retain_graph=True,其作用就是

在更新D網(wǎng)絡(luò)時的loss反向傳播過程中使用了retain_graph=True,目的為是為保留該過程中計算的梯度,后續(xù)G網(wǎng)絡(luò)更新時使用;

?? ??? ?############################
? ? ? ? # (1) Update D network: maximize D(x)-1-D(G(z))
? ? ? ? ###########################
? ? ? ? real_img = Variable(target)
? ? ? ? if torch.cuda.is_available():
? ? ? ? ? ? real_img = real_img.cuda()
? ? ? ? z = Variable(data)
? ? ? ? if torch.cuda.is_available():
? ? ? ? ? ? z = z.cuda()
? ? ? ? fake_img = netG(z)
?
? ? ? ? netD.zero_grad()
? ? ? ? real_out = netD(real_img).mean()
? ? ? ? fake_out = netD(fake_img).mean()
? ? ? ? d_loss = 1 - real_out + fake_out
? ? ? ? d_loss.backward(retain_graph=True) #####
? ? ? ? optimizerD.step()
?
? ? ? ? ############################
? ? ? ? # (2) Update G network: minimize 1-D(G(z)) + Perception Loss + Image Loss + TV Loss
? ? ? ? ###########################
? ? ? ? netG.zero_grad()
? ? ? ? g_loss = generator_criterion(fake_out, fake_img, real_img)
? ? ? ? g_loss.backward()
? ? ? ? optimizerG.step()
? ? ? ? fake_img = netG(z)
? ? ? ? fake_out = netD(fake_img).mean()
?
? ? ? ? g_loss = generator_criterion(fake_out, fake_img, real_img)
? ? ? ? running_results['g_loss'] += g_loss.data[0] * batch_size
? ? ? ? d_loss = 1 - real_out + fake_out
? ? ? ? running_results['d_loss'] += d_loss.data[0] * batch_size
? ? ? ? running_results['d_score'] += real_out.data[0] * batch_size
? ? ? ? running_results['g_score'] += fake_out.data[0] * batch_size

也就是說,只要我們有一個loss,我們就可以先loss.backward(retain_graph=True)  讓它先計算梯度,若下面還有其他損失,但是可能你想擴展代碼,可能有些loss是不用的,所以先加了 if 等判別語句進行了干預(yù),使用loss.backward(retain_graph=True)就可以單獨的計算梯度,屢試不爽。

但是另外一個問題在于,如果你都這么用的話,顯存會爆炸,因為他保留了梯度,所以都沒有及時釋放掉,浪費資源。

而正確的做法應(yīng)該是,在你最后一個loss 后面,一定要加上loss.backward()這樣的形式,也就是讓最后一個loss 釋放掉之前所有暫時保存下來得梯度?。?/p>

Pytorch中有多次backward時需要retain_graph參數(shù)

Pytorch中的機制是每次調(diào)用loss.backward()時都會free掉計算圖中所有緩存的buffers,當模型中可能有多次backward()時,因為前一次調(diào)用backward()時已經(jīng)釋放掉了buffer,所以下一次調(diào)用時會因為buffers不存在而報錯

解決辦法

loss.backward(retain_graph=True)

錯誤使用

  • optimizer.zero_grad() 清空過往梯度;
  • loss1.backward(retain_graph=True) 反向傳播,計算當前梯度;
  • loss2.backward(retain_graph=True) 反向傳播,計算當前梯度;
  • optimizer.step() 根據(jù)梯度更新網(wǎng)絡(luò)參數(shù)

因為每次調(diào)用bckward時都沒有將buffers釋放掉,所以會導(dǎo)致內(nèi)存溢出,迭代越來越慢(因為梯度都保存了,沒有free)

正確使用

  • optimizer.zero_grad() 清空過往梯度;
  • loss1.backward(retain_graph=True) 反向傳播,計算當前梯度;
  • loss2.backward() 反向傳播,計算當前梯度;
  • optimizer.step() 根據(jù)梯度更新網(wǎng)絡(luò)參數(shù)

最后一個 backward() 不要加 retain_graph 參數(shù),這樣每次更新完成后會釋放占用的內(nèi)存,也就不會出現(xiàn)越來越慢的情況了

總結(jié)

以上為個人經(jīng)驗,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評論