亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

pytorch中 gpu與gpu、gpu與cpu 在load時相互轉(zhuǎn)化操作

 更新時間:2020年05月25日 15:50:59   作者:洞幺01  
這篇文章主要介紹了pytorch模型載入之gpu和cpu互轉(zhuǎn)操作,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧

問題描述

有時在加載已訓(xùn)練好的模型時,會出現(xiàn) out of memory 的錯誤提示,但仔細(xì)檢測使用的GPU卡并沒有再用且內(nèi)存也沒有超出。

經(jīng)查閱發(fā)現(xiàn)原來是訓(xùn)練模型時使用的GPU卡和加載時使用的GPU卡不一樣導(dǎo)致的。個人感覺,因為pytorch的模型中是會記錄有GPU信息的,所以有時使用不同的GPU加載時會報錯。

解決方法

gpu之間的相互轉(zhuǎn)換。即,將訓(xùn)練時的gpu卡轉(zhuǎn)換為加載時的gpu卡。

torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'}) # gpu 1 --> gpu 0

當(dāng)然,你也可以直接將加載模型時使用的gpu卡改為和訓(xùn)練時的一樣。但在多人使用一個服務(wù)器時,你想用的gpu卡已被使用,就需按上面方法轉(zhuǎn)換gpu。

拓展

cpu --> cpu 或 gpu --> gpu

checkpoint = torch.load('modelparameters.pth')
model.load_state_dict(checkpoint)

cpu --> gpu 0

torch.load('modelparameters.pth', map_location=lambda storage, loc: storage.cuda(0))

gpu --> cpu

torch.load('modelparameters.pth', map_location=lambda storage, loc: storage)

gpu 1 --> gpu 0

torch.load('modelparameters.pth', map_location={'cuda:1':'cuda:0'})

補(bǔ)充知識:pytorch model.cuda()花費(fèi)時間很長

如果pytorch在進(jìn)行model.cuda()操作需要花費(fèi)的時間很長,長到你懷疑GPU的速度了,那就是不正常的。

如果你用的pytorch版本是0.3.0,升級到0.3.1就好了!

以上這篇pytorch模型載入之gpu和cpu互轉(zhuǎn)操作就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。

相關(guān)文章

最新評論