亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Python深度學習理解pytorch神經(jīng)網(wǎng)絡(luò)批量歸一化

 更新時間:2021年10月11日 10:02:36   作者:Supre_yuan  
這篇文章主要是Python深度學習篇,通過示例的詳解讓大家更好的理解pytorch神經(jīng)網(wǎng)絡(luò)批量歸一化,有需要的的朋友可以借鑒參考下,希望能夠有所幫助

訓練深層神經(jīng)網(wǎng)絡(luò)是十分困難的,特別是在較短的實踐內(nèi)使他們收斂更加棘手。在本節(jié)中,我們將介紹批量歸一化(batch normalization),這是一種流行且有效的技術(shù),可持續(xù)加速深層網(wǎng)絡(luò)的收斂速度。在結(jié)合之后將介紹的殘差快,批量歸一化使得研究人員能夠訓練100層以上的網(wǎng)絡(luò)。

訓練深層網(wǎng)絡(luò)

為什么要批量歸一化層呢?

讓我們回顧一下訓練神經(jīng)網(wǎng)絡(luò)時出現(xiàn)的一些實際挑戰(zhàn):

1.數(shù)據(jù)預(yù)處理的方式通常會對最終結(jié)果產(chǎn)生巨大影響?;叵胍幌挛覀儜?yīng)用多層感知機來預(yù)測房價的例子。使用真實數(shù)據(jù)時,我們的第一步是標準化輸入特征,使其平均值為0,方差為1。直觀地說,這種標準化可以很好地與我們地優(yōu)化器配合使用,因為它可以將參數(shù)的量級進行統(tǒng)一。

2.對于典型的多層感知機或卷積伸進網(wǎng)絡(luò)。當我們訓練時,中間層中的變量(例如,多層感知機中的仿射變換輸出)可能具有更廣的變化范圍:不論是沿著從輸入到輸出的層,跨同一層中的單元,或是隨著時間的推移,模型的參數(shù)隨著訓練更新變幻莫測。批量歸一化的發(fā)明者非正式地假設(shè),這些變量分布中的這種偏移可能會阻礙網(wǎng)絡(luò)的收斂。直觀地說,我們可能會猜想,如果一個層的可變值是另一層的100倍,這可能需要對學習率進行補償調(diào)整。

3.更深層的網(wǎng)絡(luò)很復雜,容易過擬合。這意味著正則化變得更加需要。

批量歸一化應(yīng)用于單個可選層(也可以應(yīng)用到所有層),其原理如下:
在每次訓練迭代中,我們首先歸一化輸入,即通過減去其平均值并除以其標準差,其中兩者均基于當前小批量處理。
接下來,我們應(yīng)用比例系數(shù)和比例偏移。
正是由于這個基于批量統(tǒng)計的標準化,才有了批量標準化的名稱。

這里,如果我們嘗試使用大小為1的小批量應(yīng)用小批量歸一化,我們將無法學到任何東西。這是因為在減去均值之后,每個隱藏單元將為0。所以,只有使用足夠大的小批量,批量歸一化這種方法才是有效且穩(wěn)定的。請注意,在應(yīng)用批量歸一化時,批量大小的選擇可能比沒有批量歸一化時更重要。

現(xiàn)在,我們了解一下批量歸一化在實踐中是如何工作的。

批量歸一化層

回想一下,批量歸一化和其他圖層之間的一個關(guān)鍵區(qū)別是,由于批量歸一化在完整的小批次上運行,因此我們不能像以前在引入其他圖層時忽略批處理的尺寸大小。我們在下面討論這兩種情況:全連接層和卷積層,它們的批量歸一化實現(xiàn)略有不同。

全連接層

通常,我們將批量歸一化層置于全連接層中的仿射變換和激活函數(shù)之間。

卷積層

同樣,對于卷積層,我們可以在卷積層之后和非線性激活函數(shù)之前應(yīng)用批量歸一化。當卷積有多個輸出通道時,我們需要對這些通道的“每個”輸出執(zhí)行批量歸一化,每個用到都有自己的拉伸和偏移參數(shù),這兩個參數(shù)都是標量。假設(shè)我們的微批次包含 m m m個示例,并且對于每個通道,卷積的輸出具有高度 p p p和寬度 q q q。那么對于卷積層,我們在每個輸出通道的 m ∗ p ∗ q m*p*q m∗p∗q個元素上同時執(zhí)行每個批量歸一化。因此,在計算平均值和方差時,我們會收集所有空間位置的值,然后在給定通道內(nèi)應(yīng)用相同的均值和方差,以便在每個空間位置對值進行歸一化。

預(yù)測過程中的批量歸一化

正如我們前面提到的,批量歸一化在訓練模式和預(yù)測模式下的行為通常是不同的。
首先,將訓練好的模型用于預(yù)測時,我們不再需要樣本均值中的噪聲以及在微批次上估計每個小批次產(chǎn)生的樣本方差了。
其次,例如,我們可能需要使用我們的模型對逐個樣本進行預(yù)測。一種常用的方法是通過移動平均估算整個訓練數(shù)據(jù)集的樣本均值和方差,并在預(yù)測時使用它們得到確定的輸出??梢?,和dropout一樣,批量歸一化層在訓練模式和預(yù)測模式下的計算結(jié)果也是不一樣的。

使用批量歸一化層的LeNet

為了更好理解如何應(yīng)用BatchNorm,下面我們將其應(yīng)用于LeNet模型?;叵胍幌?,批量歸一化是在卷積層或全連接層之后、相應(yīng)的激活函數(shù)之前應(yīng)用的。

net = nn.Sequential(
	nn.Conv2d(1, 6, kernel_size = 5), BatchNorm(6, num_dims=4), nn.Sigmoid(),
	nn.MaxPool2d(kernel_size=2, stride=2)
	nn.Conv2d(6, 16, kernel_size=5), BatchNorm(16, num_dims=4), nn.Sigmoid(),
	nn.MaxPool2d(kernel_size=2, stride=2), nn.Flatten(),
	nn.Linear(16*4*4, 120), BatchNorm(120, num_dims=2), nn.Sigmoid(),
	nn.Linear(120, 84), BatchNorm(84, num_dims=2), nn.Sigmoid(),
	nn.Linear(84, 10)
)

和以前一樣,我們將在Fashion-MNIST數(shù)據(jù)集上訓練網(wǎng)絡(luò)。這個代碼與我們第一次訓練LeNet時幾乎完全相同,主要區(qū)別在于學習率大得多。

lr, num_epochs, batch_size = 1.0, 10, 256
train_iter, test_iter = d2l.load_data_fashion_mnist(batch_size)
d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
loss 0.250, train acc 0.907, test acc 0.801
35560.7 examples/sec on cuda:0

在這里插入圖片描述

讓我們來看看從第一個批量歸一化層中學到的拉伸參數(shù)gamma和便宜參數(shù)beta。

net[1].gamma.reshape((-1,)), net[1].beta.reshape((-1,))
(tensor([0.7562, 1.2784, 2.3527, 1.3189, 2.0457, 2.8424], device='cuda:0',
grad_fn=<ViewBackward>),
tensor([ 0.7436, -0.8156, -0.2711, -0.5087, 0.5847, -3.0033], device='cuda:0',
grad_fn=<ViewBackward>))

簡明實現(xiàn)

除了使用我們剛剛定義的BatchNorm,我們也可以直接使用深度學習框架中定義的BatchNorm。該代碼看起來幾乎與我們上面的代碼相同。

net = nn.Sequential(
nn.Conv2d(1, 6, kernel_size=5), nn.BatchNorm2d(6), nn.Sigmoid(),
nn.MaxPool2d(kernel_size=2, stride=2),
nn.Conv2d(6, 16, kernel_size=5), nn.BatchNorm2d(16), nn.Sigmoid(),
nn.MaxPool2d(kernel_size=2, stride=2), nn.Flatten(),
nn.Linear(256, 120), nn.BatchNorm1d(120), nn.Sigmoid(),
nn.Linear(120, 84), nn.BatchNorm1d(84), nn.Sigmoid(),
nn.Linear(84, 10))

下面,我們使用相同超參數(shù)來訓練模型。請注意,通常高級API變體運行速度快得多,因為它的代碼已編譯為C++或CUDA,而我們自定義代碼由Python實現(xiàn)。

d2l.train_ch6(net, train_iter, test_iter, num_epochs, lr, d2l.try_gpu())
loss 0.248, train acc 0.908, test acc 0.869
60219.9 examples/sec on cuda:0

在這里插入圖片描述

爭議

直觀地說,批量歸一化被認為可以使優(yōu)化更加平滑。

然而,在提出批量歸一化的論文中,作者除了介紹了其應(yīng)用,還解釋了其原理:通過減少內(nèi)部協(xié)變量。然而這種解釋更偏向于個人直覺。

但是批量歸一化的效果很好,它適用于幾乎所有圖像分類器,并在學術(shù)界獲得了數(shù)萬引用。

以上就是Python深度學習理解pytorch神經(jīng)網(wǎng)絡(luò)批量歸一化的詳細內(nèi)容,更多關(guān)于pytorch神經(jīng)網(wǎng)絡(luò)批量歸一化的資料請關(guān)注腳本之家其它相關(guān)文章!

相關(guān)文章

  • Python中類的創(chuàng)建和實例化操作示例

    Python中類的創(chuàng)建和實例化操作示例

    這篇文章主要介紹了Python中類的創(chuàng)建和實例化操作,涉及Python面向?qū)ο蟪绦蛟O(shè)計中類的定義、實例化、方法調(diào)用等相關(guān)操作技巧,需要的朋友可以參考下
    2019-02-02
  • Python正則表達式re模塊詳解(建議收藏!)

    Python正則表達式re模塊詳解(建議收藏!)

    正則表達式是用來匹配與查找字符串的,從網(wǎng)上爬取數(shù)據(jù)自然或多或少會用到正則表達式,python的正則表達式要先引入re模塊,這篇文章主要給大家介紹了關(guān)于Python正則表達式re模塊的相關(guān)資料,需要的朋友可以參考下
    2022-07-07
  • pandas行和列的獲取的實現(xiàn)

    pandas行和列的獲取的實現(xiàn)

    本文主要介紹了pandas行和列的獲取的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2023-01-01
  • Python實現(xiàn)郵件自動下載的示例詳解

    Python實現(xiàn)郵件自動下載的示例詳解

    這篇文章主要為大家詳細介紹了如何利用Python語言實現(xiàn)郵件自動下載以及附件解析功能,文中的示例代碼講解詳細,感興趣的小伙伴可以了解一下
    2022-07-07
  • Python基于checksum計算文件是否相同的方法

    Python基于checksum計算文件是否相同的方法

    這篇文章主要介紹了Python基于checksum計算文件是否相同的方法,涉及Python針對二進制文件的讀取與判定技巧,需要的朋友可以參考下
    2015-07-07
  • Python錯誤: SyntaxError: Non-ASCII character解決辦法

    Python錯誤: SyntaxError: Non-ASCII character解決辦法

    這篇文章主要介紹了Python錯誤: SyntaxError: Non-ASCII character解決辦法的相關(guān)資料,需要的朋友可以參考下
    2017-06-06
  • python 視頻逐幀保存為圖片的完整實例

    python 視頻逐幀保存為圖片的完整實例

    今天小編就為大家分享一篇python 視頻逐幀保存為圖片的完整實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-12-12
  • Python實現(xiàn)SQL注入檢測插件實例代碼

    Python實現(xiàn)SQL注入檢測插件實例代碼

    這篇文章主要給大家介紹了關(guān)于Python實現(xiàn)SQL注入檢測插件的相關(guān)資料,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2019-02-02
  • Python 自由定制表格的實現(xiàn)示例

    Python 自由定制表格的實現(xiàn)示例

    這篇文章主要介紹了Python 自由定制表格的實現(xiàn)示例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2020-03-03
  • Python簡單操作sqlite3的方法示例

    Python簡單操作sqlite3的方法示例

    這篇文章主要介紹了Python簡單操作sqlite3的方法,結(jié)合實例形式分析了Python針對sqlite3數(shù)據(jù)庫的讀取、創(chuàng)建、增刪改查等基本操作技巧,需要的朋友可以參考下
    2017-03-03

最新評論