解決keras backend 越跑越慢問題
Keras運行迭代一定代數(shù)以后,速度越來越慢,經(jīng)檢查是因為在循環(huán)迭代過程中增加了新的計算節(jié)點,導(dǎo)致計算節(jié)點越來越多,內(nèi)存被占用完,速度變慢。
判斷是否在循環(huán)迭代過程中增加了新的計算節(jié)點,可以用下面的語句:
tf.Graph.finalize()
如果增加了新的計算節(jié)點,就會報錯,如果沒有報錯,說明沒有增加計算節(jié)點。
補充知識:win10下pytorch,tensorflow,keras+tf速度對比
采用GitHub上的代碼
運行類似vgg模型,在cifar10上訓(xùn)練,結(jié)果朋友torch與tensorflow速度相當(dāng),遠(yuǎn)遠(yuǎn)快過keras。
pytorch | tensorflow | keras+tensorflow | |
version | 0.4.0 | 1.8.0 | Keras: 2.1.6 Tensorflow: 1.8.0 |
train time: | 1min 14s | 1min 9s | 1min 51s |
evaluate time: | 378 ms | 9.4 s | 826 ms |
以上這篇解決keras backend 越跑越慢問題就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
python requests更換代理適用于IP頻率限制的方法
今天小編就為大家分享一篇python requests更換代理適用于IP頻率限制的方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧2019-08-08Python 數(shù)據(jù)處理更容易的12個輔助函數(shù)總結(jié)
Python的產(chǎn)生似乎就是專門用來處理數(shù)據(jù)的,順理成章的成為大數(shù)據(jù)的主流語言,本文介紹十二個函數(shù)輔助你更容易更便捷的用Python進(jìn)行數(shù)據(jù)處理2021-11-11pytorch中nn.Flatten()函數(shù)詳解及示例
nn.Flatten是一個類,而torch.flatten()則是一個函數(shù),下面這篇文章主要給大家介紹了關(guān)于pytorch中nn.Flatten()函數(shù)詳解及示例的相關(guān)資料,需要的朋友可以參考下2023-01-01