解讀keras中的正則化(regularization)問題
keras中正則化(regularization)
keras內置3種正則化方法
keras.regularizers.l1(lambda) keras.regularizers.l2(lambda) keras.regularizers.l1_l2(l1=lambda1, l2=lambda2)
目前我的理解是lambda越大,對參數(shù)的約束就越強,也就是懲罰力度越大。
其中L1正則化方法,是對|w|進行懲罰,使得w趨近0
而L2正則化方法,是對w2進行懲罰,使得w盡可能小
Dense,Conv1D,Conv2D,Conv3D有統(tǒng)一的正則化API,見keras中文文檔。
3個正則化關鍵字
1. kernel_regularizer
對權值進行正則化,大多數(shù)情況下使用這個
2. bias_regularizer
限制bias的大小,使得輸入和輸出接近
3. activity_regularizer
對輸出進行正則化,使得輸出盡量小
keras中添加正則化
正則項
正則項在優(yōu)化過程中層的參數(shù)或層的激活值添加懲罰項,這些懲罰項將與損失函數(shù)一起作為網絡的最終優(yōu)化目標
懲罰項基于層進行懲罰,目前懲罰項的接口與層有關,但Dense, Conv1D, Conv2D, Conv3D具有共同的接口。
這些層有三個關鍵字參數(shù)以施加正則項:
kernel_regularizer
:施加在權重上的正則項,為keras.regularizer.Regularizer對象bias_regularizer
:施加在偏置向量上的正則項,為keras.regularizer.Regularizer對象activity_regularizer
:施加在輸出上的正則項,為keras.regularizer.Regularizer對象
例子
from keras import regularizers model.add(Dense(64, input_dim=64, ? ? ? ? ? ? ? ? kernel_regularizer=regularizers.l2(0.01), ? ? ? ? ? ? ? ? activity_regularizer=regularizers.l1(0.01)))
可用正則項
keras.regularizers.l1(0.) keras.regularizers.l2(0.) keras.regularizers.l1_l2(0.)
開發(fā)新的正則項
任何以權重矩陣作為輸入并返回單個數(shù)值的函數(shù)均可以作為正則項,示例:
from keras import backend as K ? def l1_reg(weight_matrix): ? ? return 0.01 * K.sum(K.abs(weight_matrix)) ? model.add(Dense(64, input_dim=64, ? ? ? ? ? ? ? ? kernel_regularizer=l1_reg)
可參考源代碼keras/regularizer.py
總結
以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關文章
Python的shutil模塊中文件的復制操作函數(shù)詳解
shutil被定義為Python中的一個高級的文件操作模塊,擁有比os模塊中更強大的函數(shù),這里我們就來看一下Python的shutil模塊中文件的復制操作函數(shù)詳解2016-07-07Boston數(shù)據集預測放假及應用優(yōu)缺點評估
這篇文章主要為大家介紹了Boston數(shù)據集預測放假及應用優(yōu)缺點評估,有需要的朋友可以借鑒參考下,希望能夠有所幫助,祝大家多多進步,早日升職加薪2023-10-10Pytorch使用Visdom進行數(shù)據可視化的示例代碼
pytorch Visdom可視化,是一個靈活的工具,用于創(chuàng)建,組織和共享實時豐富數(shù)據的可視化,這個博客簡要介紹一下在使用Pytorch進行數(shù)據可視化的一些內容,感興趣的朋友可以參考下2023-12-12Perl中著名的Schwartzian轉換問題解決實現(xiàn)
這篇文章主要介紹了Perl中著名的Schwartzian轉換問題解決實現(xiàn),本文詳解講解了Schwartzian轉換涉及的排序問題,并同時給出實現(xiàn)代碼,需要的朋友可以參考下2015-06-06