亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

PyTorch中的拷貝與就地操作詳解

 更新時間:2020年12月09日 09:44:56   作者:Chris_34  
這篇文章主要給大家介紹了關(guān)于PyTorch中拷貝與就地操作的相關(guān)資料,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習或者工作具有一定的參考學(xué)習價值,需要的朋友們下面隨著小編來一起學(xué)習學(xué)習吧

前言

PyTroch中我們經(jīng)常使用到Numpy進行數(shù)據(jù)的處理,然后再轉(zhuǎn)為Tensor,但是關(guān)系到數(shù)據(jù)的更改時我們要注意方法是否是共享地址,這關(guān)系到整個網(wǎng)絡(luò)的更新。本篇就In-palce操作,拷貝操作中的注意點進行總結(jié)。

In-place操作

pytorch中原地操作的后綴為_,如.add_()或.scatter_(),就地操作是直接更改給定Tensor的內(nèi)容而不進行復(fù)制的操作,即不會為變量分配新的內(nèi)存。Python操作類似+=或*=也是就地操作。(我加了我自己~)

為什么in-place操作可以在處理高維數(shù)據(jù)時可以幫助減少內(nèi)存使用呢,下面使用一個例子進行說明,定義以下簡單函數(shù)來測量PyTorch的異位ReLU(out-of-place)和就地ReLU(in-place)分配的內(nèi)存:

import torch # import main library
import torch.nn as nn # import modules like nn.ReLU()
import torch.nn.functional as F # import torch functions like F.relu() and F.relu_()

def get_memory_allocated(device, inplace = False):
 '''
 Function measures allocated memory before and after the ReLU function call.
 INPUT:
 - device: gpu device to run the operation
 - inplace: True - to run ReLU in-place, False - for normal ReLU call
 '''
 
 # Create a large tensor
 t = torch.randn(10000, 10000, device=device)
 
 # Measure allocated memory
 torch.cuda.synchronize()
 start_max_memory = torch.cuda.max_memory_allocated() / 1024**2
 start_memory = torch.cuda.memory_allocated() / 1024**2
 
 # Call in-place or normal ReLU
 if inplace:
 F.relu_(t)
 else:
 output = F.relu(t)
 
 # Measure allocated memory after the call
 torch.cuda.synchronize()
 end_max_memory = torch.cuda.max_memory_allocated() / 1024**2
 end_memory = torch.cuda.memory_allocated() / 1024**2
 
 # Return amount of memory allocated for ReLU call
 return end_memory - start_memory, end_max_memory - start_max_memory
 # setup the device
device = torch.device('cuda:0' if torch.cuda.is_available() else "cpu")
#開始測試
# Call the function to measure the allocated memory for the out-of-place ReLU
memory_allocated, max_memory_allocated = get_memory_allocated(device, inplace = False)
print('Allocated memory: {}'.format(memory_allocated))
print('Allocated max memory: {}'.format(max_memory_allocated))
'''
Allocated memory: 382.0
Allocated max memory: 382.0
'''
#Then call the in-place ReLU as follows:
memory_allocated_inplace, max_memory_allocated_inplace = get_memory_allocated(device, inplace = True)
print('Allocated memory: {}'.format(memory_allocated_inplace))
print('Allocated max memory: {}'.format(max_memory_allocated_inplace))
'''
Allocated memory: 0.0
Allocated max memory: 0.0
'''

看起來,使用就地操作可以幫助我們節(jié)省一些GPU內(nèi)存。但是,在使用就地操作時應(yīng)該格外謹慎。

就地操作的主要缺點主要原因有2點,官方文檔

1.可能會覆蓋計算梯度所需的值,這意味著破壞了模型的訓(xùn)練過程。

2.每個就地操作實際上都需要實現(xiàn)來重寫計算圖。異地操作Out-of-place分配新對象并保留對舊圖的引用,而就地操作則需要更改表示此操作的函數(shù)的所有輸入的創(chuàng)建者。

在Autograd中支持就地操作很困難,并且在大多數(shù)情況下不鼓勵使用。Autograd積極的緩沖區(qū)釋放和重用使其非常高效,就地操作實際上降低內(nèi)存使用量的情況很少。除非在沉重的內(nèi)存壓力下運行,否則可能永遠不需要使用它們。

總結(jié):Autograd很香了,就地操作要慎用。

拷貝方法

淺拷貝方法: 共享 data 的內(nèi)存地址,數(shù)據(jù)會同步變化

* a.numpy() # Tensor—>Numpy array

* view() #改變tensor的形狀,但共享數(shù)據(jù)內(nèi)存,不要直接使用id進行判斷

* y = x[:] # 索引

* torch.from_numpy() # Numpy array—>Tensor

* torch.detach() # 新的tensor會脫離計算圖,不會牽扯梯度計算。

* model:forward()

還有很多選擇函數(shù)也是數(shù)據(jù)共享內(nèi)存,如index_select() masked_select() gather()。

以及后文提到的就地操作in-place。

深拷貝方法:

* torch.clone() # 新的tensor會保留在計算圖中,參與梯度計算

下面進行驗證,首先驗證淺拷貝:

import torch as t
import numpy as np
a = np.ones(4)
b = t.from_numpy(a) # Numpy->Tensor
print(a)
print(b)
'''輸出:
[1. 1. 1. 1.]
tensor([1., 1., 1., 1.], dtype=torch.float64)
'''
b.add_(1)# add_會修改b自身
print(a)
print(b)
'''輸出:
[2. 2. 2. 2.]
tensor([2., 2., 2., 2.], dtype=torch.float64)
b進行add操作后, a,b同步發(fā)生了變化
'''

Tensor和numpy對象共享內(nèi)存(淺拷貝操作),所以他們之間的轉(zhuǎn)換很快,且會同步變化。

造torch中y = x + y這樣的運算是會新開內(nèi)存的,然后將y指向新內(nèi)存。為了進行驗證,我們可以使用Python自帶的id函數(shù):如果兩個實例的ID一致,那么它們所對應(yīng)的內(nèi)存地址相同;但需要注意是在torch中還有些特殊,數(shù)據(jù)共享時直接打印tensor的id仍然會出現(xiàn)不同。

x = torch.tensor([1, 2])
y = torch.tensor([3, 4])
id_0 = id(y)
y = y + x
print(id(y) == id_0) 
# False 

這時使用索引操作不會開辟新的內(nèi)存,而想指定結(jié)果到原來的y的內(nèi)存,我們可以使用索引來進行替換操作。比如把x + y的結(jié)果通過[:]寫進y對應(yīng)的內(nèi)存中。

x = torch.tensor([1, 2])
y = torch.tensor([3, 4])
id_0 = id(y)
y[:] = y + x
print(id(y) == id_0) 
# True

另外,以下兩種方式也可以索引到相同的內(nèi)存:

  • torch.add(x, y, out=y)
  • y += x, y.add_(x)
x = torch.tensor([1, 2])
y = torch.tensor([3, 4])
id_0 = id(y)
torch.add(x, y, out=y) 
# y += x, y.add_(x)
print(id(y) == id_0) 
# True

clone() 與 detach() 對比

Torch 為了提高速度,向量或是矩陣的賦值是指向同一內(nèi)存的,這不同于 Matlab。如果需要保存舊的tensor即需要開辟新的存儲地址而不是引用,可以用 clone() 進行深拷貝,

首先我們來打印出來clone()操作后的數(shù)據(jù)類型定義變化:

(1). 簡單打印類型

import torch

a = torch.tensor(1.0, requires_grad=True)
b = a.clone()
c = a.detach()
a.data *= 3
b += 1

print(a) # tensor(3., requires_grad=True)
print(b)
print(c)

'''
輸出結(jié)果:
tensor(3., requires_grad=True)
tensor(2., grad_fn=<AddBackward0>)
tensor(3.)  # detach()后的值隨著a的變化出現(xiàn)變化
'''

grad_fn=<CloneBackward>,表示clone后的返回值是個中間變量,因此支持梯度的回溯。clone操作在一定程度上可以視為是一個identity-mapping函數(shù)。

detach()操作后的tensor與原始tensor共享數(shù)據(jù)內(nèi)存,當原始tensor在計算圖中數(shù)值發(fā)生反向傳播等更新之后,detach()的tensor值也發(fā)生了改變。

注意: 在pytorch中我們不要直接使用id是否相等來判斷tensor是否共享內(nèi)存,這只是充分條件,因為也許底層共享數(shù)據(jù)內(nèi)存,但是仍然是新的tensor,比如detach(),如果我們直接打印id會出現(xiàn)以下情況。

import torch as t
a = t.tensor([1.0,2.0], requires_grad=True)
b = a.detach()
#c[:] = a.detach()
print(id(a))
print(id(b))
#140568935450520
140570337203616

顯然直接打印出來的id不等,我們可以通過簡單的賦值后觀察數(shù)據(jù)變化進行判斷。

(2). clone()的梯度回傳

detach()函數(shù)可以返回一個完全相同的tensor,與舊的tensor共享內(nèi)存,脫離計算圖,不會牽扯梯度計算。

而clone充當中間變量,會將梯度傳給源張量進行疊加,但是本身不保存其grad,即值為None

import torch
a = torch.tensor(1.0, requires_grad=True)
a_ = a.clone()
y = a**2
z = a ** 2+a_ * 3
y.backward()
print(a.grad) # 2
z.backward()
print(a_.grad)   # None. 中間variable,無grad
print(a.grad) 
'''
輸出:
tensor(2.) 
None
tensor(7.) # 2*2+3=7
'''

使用torch.clone()獲得的新tensor和原來的數(shù)據(jù)不再共享內(nèi)存,但仍保留在計算圖中,clone操作在不共享數(shù)據(jù)內(nèi)存的同時支持梯度梯度傳遞與疊加,所以常用在神經(jīng)網(wǎng)絡(luò)中某個單元需要重復(fù)使用的場景下。

通常如果原tensor的requires_grad=True,則:

  • clone()操作后的tensor requires_grad=True
  • detach()操作后的tensor requires_grad=False。
import torch
torch.manual_seed(0)

x= torch.tensor([1., 2.], requires_grad=True)
clone_x = x.clone() 
detach_x = x.detach()
clone_detach_x = x.clone().detach() 

f = torch.nn.Linear(2, 1)
y = f(x)
y.backward()

print(x.grad)
print(clone_x.requires_grad)
print(clone_x.grad)
print(detach_x.requires_grad)
print(clone_detach_x.requires_grad)
'''
輸出結(jié)果如下:
tensor([-0.0053, 0.3793])
True
None
False
False
'''

另一個比較特殊的是當源張量的 require_grad=False,clone后的張量 require_grad=True,此時不存在張量回傳現(xiàn)象,可以得到clone后的張量求導(dǎo)。

如下:

import torch
a = torch.tensor(1.0)
a_ = a.clone()
a_.requires_grad_() #require_grad=True
y = a_ ** 2
y.backward()
print(a.grad) # None
print(a_.grad) 
'''
輸出:
None
tensor(2.)
'''

總結(jié):

torch.detach() —新的tensor會脫離計算圖,不會牽扯梯度計算

torch.clone() — 新的tensor充當中間變量,會保留在計算圖中,參與梯度計算(回傳疊加),但是一般不會保留自身梯度。

原地操作(in-place, such as resize_ / resize_as_ / set_ / transpose_) 在上面兩者中執(zhí)行都會引發(fā)錯誤或者警告。

引用官方文檔的話:如果你使用了in-place operation而沒有報錯的話,那么你可以確定你的梯度計算是正確的。另外盡量避免in-place的使用。

到此這篇關(guān)于PyTorch中拷貝與就地操作的文章就介紹到這了,更多相關(guān)PyTorch拷貝與就地操作內(nèi)容請搜索腳本之家以前的文章或繼續(xù)瀏覽下面的相關(guān)文章希望大家以后多多支持腳本之家!

相關(guān)文章

  • python DataFrame獲取行數(shù)、列數(shù)、索引及第幾行第幾列的值方法

    python DataFrame獲取行數(shù)、列數(shù)、索引及第幾行第幾列的值方法

    下面小編就為大家分享一篇python DataFrame獲取行數(shù)、列數(shù)、索引及第幾行第幾列的值方法,具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2018-04-04
  • Python將圖片轉(zhuǎn)換為字符畫的方法

    Python將圖片轉(zhuǎn)換為字符畫的方法

    這篇文章主要為大家詳細介紹了Python將圖片轉(zhuǎn)換為字符畫的方法,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2018-03-03
  • Numpy數(shù)組轉(zhuǎn)置的實現(xiàn)

    Numpy數(shù)組轉(zhuǎn)置的實現(xiàn)

    本文主要介紹了Numpy數(shù)組轉(zhuǎn)置的實現(xiàn),文中通過示例代碼介紹的非常詳細,對大家的學(xué)習或者工作具有一定的參考學(xué)習價值,需要的朋友們下面隨著小編來一起學(xué)習學(xué)習吧
    2023-02-02
  • 用代碼幫你了解Python基礎(chǔ)(1)

    用代碼幫你了解Python基礎(chǔ)(1)

    這篇文章主要用代碼幫你了解Python基礎(chǔ),使用數(shù)據(jù)類型和變量以及字符串和格式化的示例代碼,文中示例代碼介紹的非常詳細,具有一定的參考價值,感興趣的小伙伴們可以參考一下
    2022-01-01
  • python讀取查看npz/npy文件數(shù)據(jù)以及數(shù)據(jù)完全顯示方法實例

    python讀取查看npz/npy文件數(shù)據(jù)以及數(shù)據(jù)完全顯示方法實例

    前兩天從在GitHub下載了一個代碼,其中的數(shù)據(jù)集是.npz結(jié)尾的文件,之前沒有見過不知道如何處理,下面這篇文章主要給大家介紹了關(guān)于python讀取查看npz/npy文件數(shù)據(jù)以及數(shù)據(jù)完全顯示方法的相關(guān)資料,需要的朋友可以參考下
    2022-04-04
  • Python計算庫numpy進行方差/標準方差/樣本標準方差/協(xié)方差的計算

    Python計算庫numpy進行方差/標準方差/樣本標準方差/協(xié)方差的計算

    今天小編就為大家分享一篇關(guān)于Python計算庫numpy進行方差/標準方差/樣本標準方差/協(xié)方差的計算,小編覺得內(nèi)容挺不錯的,現(xiàn)在分享給大家,具有很好的參考價值,需要的朋友一起跟隨小編來看看吧
    2018-12-12
  • PyQt5+serial模塊實現(xiàn)一個串口小工具

    PyQt5+serial模塊實現(xiàn)一個串口小工具

    這篇文章主要為大家詳細介紹了如何利用PyQt5和serial模塊實現(xiàn)一個簡單的串口小工具,文中的示例代碼講解詳細,感興趣的小伙伴可以跟隨小編一起學(xué)習一下
    2023-01-01
  • Python re.split方法分割字符串的實現(xiàn)示例

    Python re.split方法分割字符串的實現(xiàn)示例

    本文主要介紹了Python re.split方法分割字符串的實現(xiàn)示例,文中通過示例代碼介紹的非常詳細,對大家的學(xué)習或者工作具有一定的參考學(xué)習價值,需要的朋友們下面隨著小編來一起學(xué)習學(xué)習吧
    2022-08-08
  • Django ORM多對多查詢方法(自定義第三張表&ManyToManyField)

    Django ORM多對多查詢方法(自定義第三張表&ManyToManyField)

    今天小編就為大家分享一篇Django ORM多對多查詢方法(自定義第三張表&ManyToManyField),具有很好的參考價值,希望對大家有所幫助。一起跟隨小編過來看看吧
    2019-08-08
  • python實現(xiàn)冒泡排序算法的兩種方法

    python實現(xiàn)冒泡排序算法的兩種方法

    本篇文章主要介紹了python實現(xiàn)冒泡排序的兩種方法,小編覺得挺不錯的,現(xiàn)在分享給大家,也給大家做個參考。一起跟隨小編過來看看吧
    2018-03-03

最新評論