pytorch1.0中torch.nn.Conv2d用法詳解
Conv2d的簡單使用
torch 包 nn 中 Conv2d 的用法與 tensorflow 中類似,但不完全一樣。
在 torch 中,Conv2d 有幾個基本的參數(shù),分別是
in_channels 輸入圖像的深度
out_channels 輸出圖像的深度
kernel_size 卷積核大小,正方形卷積只為單個數(shù)字
stride 卷積步長,默認(rèn)為1
padding 卷積是否造成尺寸丟失,1為不丟失
與tensorflow不一樣的是,pytorch中的使用更加清晰化,我們可以使用這種方法定義輸入與輸出圖像的深度并同時指定使用的卷積核的大小。
而我們的輸入則由經(jīng)由 Conv2d 定義的參數(shù)傳入,如下所示:
# 定義一個輸入深度為1,輸出為6,卷積核大小為 3*3 的 conv1 變量 self.conv1 = nn.Conv2d(1, 6, 3) # 傳入原始輸入x,以獲得長寬與x相當(dāng),深度為6的卷積部分 x = self.conv1(x)
要注意的是,Conv2d中所需要的輸入順序為
batchsize, nChannels, Height, Width
其他的簡單使用
同樣的,與 Conv2d 類似的函數(shù)還有很多,類似 max_pool2d、relu等等,他們的使用方法與 Conv2d 極為類似,如下所示:
# relu函數(shù)的使用 F.relu(self.conv1(x)) # 池化函數(shù)的使用 F.max_pool2d(F.relu(self.conv2(x)), 2)
以上這篇pytorch1.0中torch.nn.Conv2d用法詳解就是小編分享給大家的全部內(nèi)容了,希望能給大家一個參考,也希望大家多多支持腳本之家。
相關(guān)文章
Python代碼中引用已經(jīng)寫好的模塊、方法的兩種方式
這篇文章主要介紹了Python代碼中引用已經(jīng)寫好的模塊、方法,下面就介紹兩種方式,可以簡潔明了地調(diào)用自己在其他模塊寫的代碼,需要的朋友可以參考下2022-07-07Python3實現(xiàn)將文件歸檔到zip文件及從zip文件中讀取數(shù)據(jù)的方法
這篇文章主要介紹了Python3實現(xiàn)將文件歸檔到zip文件及從zip文件中讀取數(shù)據(jù)的方法,涉及Python針對zip文件操作的相關(guān)技巧,需要的朋友可以參考下2015-05-05python將二維數(shù)組升為一維數(shù)組或二維降為一維方法實例
在實際應(yīng)用的過程中,遇到列表或是數(shù)組的維數(shù)不同,需要變換的問題,如二維列表/數(shù)組變成了一維列表/數(shù)組,下面這篇文章主要給大家介紹了關(guān)于python將二維數(shù)組升為一維數(shù)組或二維降為一維的相關(guān)資料,需要的朋友可以參考下2022-11-11Django修改app名稱和數(shù)據(jù)表遷移方案實現(xiàn)
這篇文章主要介紹了Django修改app名稱和數(shù)據(jù)表遷移方案實現(xiàn),文中通過示例代碼介紹的非常詳細(xì),對大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價值,需要的朋友們下面隨著小編來一起學(xué)習(xí)學(xué)習(xí)吧2020-09-09python Django批量導(dǎo)入數(shù)據(jù)
這篇文章主要為大家詳細(xì)介紹了python Django批量導(dǎo)入數(shù)據(jù)的相關(guān)資料感興趣的小伙伴們可以參考一下2016-03-03