亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

Pytorch 中的optimizer使用說明

 更新時間:2021年03月03日 11:51:08   作者:gdymind  
這篇文章主要介紹了Pytorch 中的optimizer使用說明,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧

與優(yōu)化函數相關的部分在torch.optim模塊中,其中包含了大部分現(xiàn)在已有的流行的優(yōu)化方法。

如何使用Optimizer

要想使用optimizer,需要創(chuàng)建一個optimizer 對象,這個對象會保存當前狀態(tài),并根據梯度更新參數。

怎樣構造Optimizer

要構造一個Optimizer,需要使用一個用來包含所有參數(Tensor形式)的iterable,把相關參數(如learning rate、weight decay等)裝進去。

注意,如果想要使用.cuda()方法來將model移到GPU中,一定要確保這一步在構造Optimizer之前。因為調用.cuda()之后,model里面的參數已經不是之前的參數了。

示例代碼如下:

optimizer = optim.SGD(model.parameters(), lr = 0.01, momentum = 0.9)
optimizer = optim.Adam([var1, var2], lr = 0.0001)

常用參數

last_epoch代表上一次的epoch的值,初始值為-1。

單獨指定參數

也可以用一個dict的iterable指定參數。這里的每個dict都必須要params這個key,params包含它所屬的參數列表。除此之外的key必須它的Optimizer(如SGD)里面有的參數。

You can still pass options as keyword arguments. They will be used as defaults, in the groups that didn't override them. This is useful when you only want to vary a single option, while keeping all others consistent between parameter groups.

這在針對特定部分進行操作時很有用。比如只希望給指定的幾個層單獨設置學習率:

optim.SGD([
  {'params': model.base.parameters()},
  {'params': model.classifier.parameters(), 'lr': 0.001}
  ],
  
  lr = 0.01, momentum = 0.9)

在上面這段代碼中model.base將會使用默認學習率0.01,而model.classifier的參數蔣歡使用0.001的學習率。

怎樣進行單次優(yōu)化

所有optimizer都實現(xiàn)了step()方法,調用這個方法可以更新參數,這個方法有以下兩種使用方法:

optimizer.step()

多數optimizer里都可以這么做,每次用backward()這類的方法計算出了梯度后,就可以調用一次這個方法來更新參數。

示例程序:

for input, target in dataset:
 optimizer.zero_grad()
 ouput = model(input)
 loss = loss_fn(output, target)
 loss.backward()
 optimizer.step()

optimizer.step(closure)

有些優(yōu)化算法會多次重新計算函數(比如Conjugate Gradient、LBFGS),這樣的話你就要使用一個閉包(closure)來支持多次計算model的操作。

這個closure的運行過程是,清除梯度,計算loss,返回loss。

(這個我不太理解,因為這些優(yōu)化算法不熟悉)

示例程序:

for input, target in dataset:
  def closure():
    optimizer.zero_grad()
    output = model(input)
    loss = loss_fn(output, target)
    loss.backward()
    return loss
  optimizer.step(closure)

優(yōu)化算法

這里就不完整介紹documentation中的內容了,只介紹基類。具體的算法的參數需要理解它們的原理才能明白,這個改天單獨來一篇文章介紹。

Optimizer

 class torch.optim.Optimizer(params, defaults)

這是所有optimizer的基類。

注意,各參數的順序必須保證每次運行都一致。有些數據結構就不滿足這個條件,比如dictionary的iterator和set。

參數

params(iterable)是torch.Tensor或者dict的iterable。這個參數指定了需要更新的Tensor。

defaults(dict)是一個dict,它包含了默認的的優(yōu)化選項。

方法

add_param_group(param_group)

這個方法的作用是增加一個參數組,在fine tuning一個預訓練的網絡時有用。

load_state_dict(state_dict)

這個方法的作用是加載optimizer的狀態(tài)。

state_dict()

獲取一個optimizer的狀態(tài)(一個dict)。

zero_grad()方法用于清空梯度。

step(closure)用于進行單次更新。

Adam

class torch.optim.Adam(params, lr=0.001, betas=(0.9, 0.999), eps=1e-08, weight_decay=0, amsgrad=False)

補充:pytorch里面的Optimizer和optimizer.step()用法

當我們想指定每一層的學習率時:

optim.SGD([
          {'params': model.base.parameters()},
          {'params': model.classifier.parameters(), 'lr': 1e-3}
        ], lr=1e-2, momentum=0.9)

這意味著model.base的參數將會使用1e-2的學習率,model.classifier的參數將會使用1e-3的學習率,并且0.9的momentum將會被用于所有的參數。

進行單次優(yōu)化

所有的optimizer都實現(xiàn)了step()方法,這個方法會更新所有的參數。它能按兩種方式來使用:

optimizer.step()

這是大多數optimizer所支持的簡化版本。一旦梯度被如backward()之類的函數計算好后,我們就可以調用這個函數。

例子

for input, target in dataset:
    optimizer.zero_grad()
    output = model(input)
    loss = loss_fn(output, target)
    loss.backward()
    optimizer.step()
optimizer.step(closure)

一些優(yōu)化算法例如Conjugate Gradient和LBFGS需要重復多次計算函數,因此你需要傳入一個閉包去允許它們重新計算你的模型。

這個閉包應當清空梯度,計算損失,然后返回。

例子:

for input, target in dataset:
  def closure():
    optimizer.zero_grad()
    output = model(input)
    loss = loss_fn(output, target)
    loss.backward()
    return loss
  optimizer.step(closure)

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

相關文章

  • 詳解在Python程序中解析并修改XML內容的方法

    詳解在Python程序中解析并修改XML內容的方法

    這篇文章主要介紹了在Python程序中解析并修改XML內容的方法,依賴于解析成樹狀結構后的節(jié)點進行修改,需要的朋友可以參考下
    2015-11-11
  • AI生成圖片Stable?Diffusion環(huán)境搭建與運行方法

    AI生成圖片Stable?Diffusion環(huán)境搭建與運行方法

    Stable?Diffusion是一種基于擴散過程的生成模型,由Ge?et?al.在2021年提出,該模型利用了隨機變量的穩(wěn)定分布,通過遞歸地應用擴散過程來生成高質量的圖像,這篇文章主要介紹了AI圖片生成Stable?Diffusion環(huán)境搭建與運行,需要的朋友可以參考下
    2023-05-05
  • Django ORM外鍵查詢與反向查詢技巧

    Django ORM外鍵查詢與反向查詢技巧

    Django 的 ORM(對象關系映射)是其最強大的功能之一,它使得數據庫操作變得直觀和簡潔,在復雜的數據庫結構中,外鍵(Foreign Key)的使用及其對應的反向查詢是 Django 開發(fā)中不可或缺的部分,本文將詳細介紹如何在 Django 中利用外鍵進行數據查詢以及執(zhí)行反向查詢
    2023-11-11
  • Pyinstaller打包.py生成.exe的方法和報錯總結

    Pyinstaller打包.py生成.exe的方法和報錯總結

    今天小編就為大家分享一篇關于Pyinstaller打包.py生成.exe的方法和報錯總結,小編覺得內容挺不錯的,現(xiàn)在分享給大家,具有很好的參考價值,需要的朋友一起跟隨小編來看看吧
    2019-04-04
  • pytest插件的7種用法

    pytest插件的7種用法

    本文主要介紹了pytest插件的7種用法,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2023-02-02
  • python 全角半角互換的實現(xiàn)示例

    python 全角半角互換的實現(xiàn)示例

    角、半角的的不一致會導致信息抽取不一致,本文主要介紹了python 全角半角互換的實現(xiàn)示例,文中通過示例代碼介紹的非常詳細,對大家的學習或者工作具有一定的參考學習價值,需要的朋友們下面隨著小編來一起學習學習吧
    2022-03-03
  • python matplotlib 畫dataframe的時間序列圖實例

    python matplotlib 畫dataframe的時間序列圖實例

    今天小編就為大家分享一篇python matplotlib 畫dataframe的時間序列圖實例,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-11-11
  • python實現(xiàn)決策樹C4.5算法詳解(在ID3基礎上改進)

    python實現(xiàn)決策樹C4.5算法詳解(在ID3基礎上改進)

    下面小編就為大家?guī)硪黄猵ython實現(xiàn)決策樹C4.5算法詳解(在ID3基礎上改進)。小編覺得挺不錯的,現(xiàn)在就分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2017-05-05
  • python網絡爬蟲實現(xiàn)個性化音樂播放器示例解析

    python網絡爬蟲實現(xiàn)個性化音樂播放器示例解析

    這篇文章主要為大家介紹了使用python網絡爬蟲實現(xiàn)個性化音樂播放器的詳細示例代碼以及內容解析,有需要的朋友?可以借鑒參考下希望能夠有所幫助
    2022-03-03
  • Pytorch反向傳播中的細節(jié)-計算梯度時的默認累加操作

    Pytorch反向傳播中的細節(jié)-計算梯度時的默認累加操作

    這篇文章主要介紹了Pytorch反向傳播中的細節(jié)-計算梯度時的默認累加操作,具有很好的參考價值,希望對大家有所幫助。如有錯誤或未考慮完全的地方,望不吝賜教
    2021-06-06

最新評論