在keras里實(shí)現(xiàn)自定義上采樣層
Keras里的UpSampling2D層不是中的雙線性內(nèi)插,而是簡單的重復(fù)圖像。這點(diǎn)和pytorch不一樣,pytorch默認(rèn)使用的是雙線性內(nèi)插。
同樣:這里仍然使用的是keras而不是tf.keras.
keras里UpSampling2D的部分定義說明如下:
class UpSampling2D(Layer): """Upsampling layer for 2D inputs. Repeats the rows and columns of the data by size[0] and size[1] respectively.
可以看出,這里的上采樣確實(shí)只是簡單的圖像重復(fù)。
要想使用雙線性或者最近鄰或者雙三次插值上采樣,則需要在tf的tf.image.resize_images函數(shù)基礎(chǔ)上進(jìn)行包裝,代碼如下:
####定義:
def my_upsampling(x,img_w,img_h,method=0):
"""0:雙線性差值。1:最近鄰居法。2:雙三次插值法。3:面積插值法"""
return tf.image.resize_images(x,(img_w,img_h),0)
###調(diào)用:
Lambda(my_upsampling,arguments={'img_w':self.img_w,'img_h':self.img_h})(output_6)
###load_model時(shí)注意加上tf:
model = keras.models.load_model('my_model.h5', custom_objects={'tf': tf})
補(bǔ)充知識:keras中使用內(nèi)置模型語義分割上采樣維度不匹配
1.卷積時(shí)要使用padding=same因此要修改原來的padding=valid
x = conv2d_bn(img_input, 32, 3, strides=2, padding='same')
2.池化時(shí)卷積核大小修改為2而不是原來的3
branch_pool = layers.MaxPooling2D(2, strides=2, padding='same')(x)
以上這篇在keras里實(shí)現(xiàn)自定義上采樣層就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python數(shù)據(jù)結(jié)構(gòu)之棧、隊(duì)列的實(shí)現(xiàn)代碼分享
這篇文章主要介紹了Python數(shù)據(jù)結(jié)構(gòu)之棧、隊(duì)列的實(shí)現(xiàn)代碼分享,具有一定參考價(jià)值,需要的朋友可以了解下。2017-12-12
Pygame實(shí)現(xiàn)簡易版趣味小游戲之反彈球
這篇文章主要為大家詳細(xì)介紹了python實(shí)現(xiàn)簡易版趣味反彈球游戲,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2022-03-03
TensorFlow實(shí)現(xiàn)Batch Normalization
這篇文章主要為大家詳細(xì)介紹了TensorFlow實(shí)現(xiàn)Batch Normalization,具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2018-03-03
python pygame實(shí)現(xiàn)球球大作戰(zhàn)
這篇文章主要為大家詳細(xì)介紹了Python pygame實(shí)現(xiàn)球球大作戰(zhàn),文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下2019-11-11
Python 機(jī)器學(xué)習(xí)之線性回歸詳解分析
回歸是監(jiān)督學(xué)習(xí)的一個重要問題,回歸用于預(yù)測輸入變量和輸出變量之間的關(guān)系,特別是當(dāng)輸入變量的值發(fā)生變化時(shí),輸出變量的值也隨之發(fā)生變化?;貧w模型正是表示從輸入變量到輸出變量之間映射的函數(shù)2021-11-11

