亚洲乱码中文字幕综合,中国熟女仑乱hd,亚洲精品乱拍国产一区二区三区,一本大道卡一卡二卡三乱码全集资源,又粗又黄又硬又爽的免费视频

對(duì)pytorch中不定長(zhǎng)序列補(bǔ)齊的操作

 更新時(shí)間:2021年05月31日 08:42:58   作者:XJTU-Qidong  
這篇文章主要介紹了對(duì)pytorch中不定長(zhǎng)序列補(bǔ)齊的操作,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。如有錯(cuò)誤或未考慮完全的地方,望不吝賜教

第二種方法通常是在load一個(gè)batch數(shù)據(jù)時(shí), 在collate_fn中進(jìn)行補(bǔ)齊的.

以下給出兩種思路:

第一種思路是比較容易想到的, 就是對(duì)一個(gè)batch的樣本進(jìn)行遍歷, 然后使用np.pad對(duì)每一個(gè)樣本進(jìn)行補(bǔ)齊.

for unit in data:
        mask = np.zeros(max_length)
        s_len = len(unit[0])    # calculate the length of sequence in each unit
        mask[: s_len] = 1
        unit[0] = np.pad(unit[0], (0, max_length - s_len), 'constant', constant_values=(0, 0))
        mask_batch.append(mask)

但是這種方法在batch size很大的情況下會(huì)很慢, 因?yàn)槭褂胒or循環(huán)進(jìn)行了遍歷. 我在實(shí)際用的時(shí)候, 當(dāng)batch_size=128時(shí), 一個(gè)batch的加載時(shí)間甚至是一個(gè)batch訓(xùn)練時(shí)間的幾倍!

因此, 我想到如何并行地對(duì)序列進(jìn)行補(bǔ)齊. 第二種方法的思路就是使用torch中自帶的pad_sequence來(lái)并行補(bǔ)齊.

batch_sequence = list(map(lambda x: torch.tensor(x[findex]), x_data))
batch_data[feat] = torch.nn.utils.rnn.pad_sequence(batch_sequence).T

可以看到這里使用pad_sequence一次性對(duì)整個(gè)batch進(jìn)行補(bǔ)齊. 下面對(duì)這個(gè)函數(shù)進(jìn)行詳細(xì)說(shuō)明.

pad_sequence詳解

from torch.utils.rnn import pad_sequence
a = torch.ones(10)
b = torch.ones(6)
c = torch.ones(20)
abc = pad_sequence([a,b,c])  # shape(20, 3)

注意這個(gè)函數(shù)接收的是一個(gè)元素為tensor的列表, 而不是tensor.

最終, 這個(gè)函數(shù)會(huì)將所有tensor轉(zhuǎn)換為tensor矩陣#shape(max_length, batch_size). 因此, 在使用完后通常還需要轉(zhuǎn)置一下.

補(bǔ)充:PyTorch中用于RNN變長(zhǎng)序列填充函數(shù)的簡(jiǎn)單使用

1、PyTorch中RNN變長(zhǎng)序列的問(wèn)題   

RNN在處理變長(zhǎng)序列時(shí)有它的優(yōu)勢(shì)。在分批處理變長(zhǎng)序列問(wèn)題時(shí),每個(gè)序列的長(zhǎng)度往往不會(huì)完全相等,因此針對(duì)一個(gè)batch中序列長(zhǎng)度不一的情況,需要對(duì)某些序列進(jìn)行PAD(填充)操作,使得一個(gè)batch內(nèi)的序列長(zhǎng)度相等。   

PyTorch中的pack_padded_sequence和pad_packed_sequence可處理上述問(wèn)題,以下用一個(gè)示例演示這兩個(gè)函數(shù)的簡(jiǎn)單使用方法。

2、填充函數(shù)簡(jiǎn)介

“壓縮”函數(shù):用于將填充后的序列tensor進(jìn)行壓縮,方便RNN處理

pack_padded_sequence(input, lengths, batch_first=False, enforce_sorted=True)

(1)input->被“壓縮”的tensor,維度一般為[batch_size,_max_seq_len[,embedding_size]]或者[max_seq_len,batch_size[,embedding_size]]

若input維度為:[batch_size,_max_seq_len[,embedding_size]]

要將batch_first設(shè)置為True,這表示input的第一個(gè)維度為batch的數(shù)量

若input維度為:[max_seq_len,batch_size[,embedding_size]]

要將batch_first設(shè)置為False(默認(rèn)值),這表示input的第一個(gè)維度不是batch的數(shù)量

(2)lengths->lengths參數(shù)表示一個(gè)batch中序列真實(shí)長(zhǎng)度,類型為列表,在例子中詳細(xì)說(shuō)明

(3)batch_first->表示batch的數(shù)量是否在input的第一維度,默認(rèn)值為False

(4)enforce_sorted->input中的會(huì)自動(dòng)按照l(shuí)engths的情況進(jìn)行排序,默認(rèn)值為

“解壓”函數(shù):該函數(shù)與"壓縮函數(shù)"相對(duì)應(yīng),經(jīng)“壓縮函數(shù)”處理的輸入經(jīng)過(guò)RNN得到的最終結(jié)果可以利用該函數(shù)進(jìn)行“解壓”

pad_packed_sequence(sequence, batch_first=False, padding_value=0.0, total_length=None):

(1)sequence->壓縮函數(shù)處理過(guò)的input經(jīng)RNN后得到的結(jié)果

(2)batch_first->與“壓縮”函數(shù)中的batch_first一致

(3)padding_value->序列進(jìn)行填充時(shí)使用的索引,默認(rèn)為0

(4)total_length->暫略

3、PyTorch代碼示例

代碼如下(示例):

# Create by leslie_miao on 2020/11/1
import torch
import torch.nn as nn
d_model = 10 # 詞嵌入的維度
hidden_size = 20 # lstm隱藏層單元數(shù)量
layer_num = 1 # lstm層數(shù)
# 輸入inputs,維度為[batch_size,max_seq_len]=[3,4],其中0代表填充
# 該input包含3個(gè)序列,每個(gè)序列的真實(shí)長(zhǎng)度分別為: 4 3 2
inputs = torch.tensor([[1,2,3,4],[1,2,3,0],[1,2,0,0]])
embedding = nn.Embedding(5,d_model)
# 獲取詞嵌入后的inputs 當(dāng)前inputs的維度為[batch_size,max_seq_len,d_model]=[3,4,10]
inputs = embedding(inputs)
# 查看inputs的維度
print(inputs.size())
# print: torch.Size([3, 4, 10])
# 利用“壓縮”函數(shù)對(duì)inputs進(jìn)行壓縮處理,[4,3,2]分別為inputs中序列的真實(shí)長(zhǎng)度,batch_first=True表示inputs的第一維是batch_size
inputs = nn.utils.rnn.pack_padded_sequence(inputs,lengths=[4,3,2],batch_first=True)
# 查看經(jīng)“壓縮”函數(shù)處理過(guò)的inputs的維度
print(inputs[0].size())
# print: torch.Size([9, 10])
# 定義RNN網(wǎng)絡(luò)
network = nn.LSTM(input_size=d_model,hidden_size=hidden_size,batch_first=True,num_layers=layer_num)
# 初始化RNN相關(guān)門參數(shù)
c_0 = torch.zeros((layer_num,3,hidden_size))
h_0 = torch.zeros((layer_num,3,hidden_size)) # [rnn層數(shù),batch_size,hidden_size]
# inputs經(jīng)過(guò)RNN網(wǎng)絡(luò)后得到的結(jié)果outputs
output,(h_n,c_n) = network(inputs,(h_0,c_0))
#查看未經(jīng)“解壓函數(shù)”處理的outputs維度
print(output[0].size())
# print: torch.Size([9, 20])
# 利用“解壓函數(shù)”對(duì)outputs進(jìn)行解壓操作,其中batch_first設(shè)置與“壓縮函數(shù)相同”,padding_value為0
output = nn.utils.rnn.pad_packed_sequence(output,batch_first=True,padding_value=0)
# 查看經(jīng)“解壓函數(shù)”處理的outputs維度
print(output[0].size())
# print:torch.Size([3, 4, 20])

總結(jié)

介紹了PyTorch中兩個(gè)應(yīng)用于RNN變長(zhǎng)序列填充的函數(shù)pack_padded_sequence和 pad_packed_sequence的簡(jiǎn)單使用方法,歡迎指正交流!

相關(guān)文章

  • Python將8位的圖片轉(zhuǎn)為24位的圖片實(shí)現(xiàn)方法

    Python將8位的圖片轉(zhuǎn)為24位的圖片實(shí)現(xiàn)方法

    這篇文章主要介紹了Python將8位的圖片轉(zhuǎn)為24位的圖片的實(shí)現(xiàn)代碼,非常不錯(cuò),具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2018-10-10
  • 實(shí)例探究Python以并發(fā)方式編寫(xiě)高性能端口掃描器的方法

    實(shí)例探究Python以并發(fā)方式編寫(xiě)高性能端口掃描器的方法

    端口掃描器就是向一批端口上發(fā)送請(qǐng)求來(lái)檢測(cè)端口是否打開(kāi)的程序,這里我們以實(shí)例探究Python以并發(fā)方式編寫(xiě)高性能端口掃描器的方法
    2016-06-06
  • Form表單及django的form表單的補(bǔ)充

    Form表單及django的form表單的補(bǔ)充

    這篇文章主要介紹了Form表單及django的form表單的補(bǔ)充,文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友可以參考下
    2019-07-07
  • 深入淺析pycharm中 Make available to all projects的含義

    深入淺析pycharm中 Make available to all projects的含義

    這篇文章主要介紹了pycharm中 Make available to all projects的含義,本文給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2020-09-09
  • 對(duì)python:threading.Thread類的使用方法詳解

    對(duì)python:threading.Thread類的使用方法詳解

    今天小編就為大家分享一篇對(duì)python:threading.Thread類的使用方法詳解,具有很好的參考價(jià)值,希望對(duì)大家有所幫助。一起跟隨小編過(guò)來(lái)看看吧
    2019-01-01
  • opencv實(shí)現(xiàn)圖像幾何變換

    opencv實(shí)現(xiàn)圖像幾何變換

    這篇文章主要為大家詳細(xì)介紹了opencv實(shí)現(xiàn)圖像幾何變換,文中示例代碼介紹的非常詳細(xì),具有一定的參考價(jià)值,感興趣的小伙伴們可以參考一下
    2021-03-03
  • python中星號(hào)變量的幾種特殊用法

    python中星號(hào)變量的幾種特殊用法

    不知道大家知不知道在Python中,星號(hào)除了用于乘法數(shù)值運(yùn)算和冪運(yùn)算外,還有一種特殊的用法"在變量前添加單個(gè)星號(hào)或兩個(gè)星號(hào)",實(shí)現(xiàn)多參數(shù)的傳入或變量的拆解,本文將詳細(xì)介紹"星號(hào)參數(shù)"的用法。有需要的可以參考借鑒。
    2016-09-09
  • opencv 圖像濾波(均值,方框,高斯,中值)

    opencv 圖像濾波(均值,方框,高斯,中值)

    這篇文章主要介紹了opencv 圖像濾波(均值,方框,高斯,中值),文中通過(guò)示例代碼介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或者工作具有一定的參考學(xué)習(xí)價(jià)值,需要的朋友們下面隨著小編來(lái)一起學(xué)習(xí)學(xué)習(xí)吧
    2020-07-07
  • Python爬蟲(chóng)實(shí)現(xiàn)自動(dòng)登錄、簽到功能的代碼

    Python爬蟲(chóng)實(shí)現(xiàn)自動(dòng)登錄、簽到功能的代碼

    這篇文章主要介紹了Python爬蟲(chóng)實(shí)現(xiàn)自動(dòng)登錄、簽到功能的代碼,本文通過(guò)圖文并茂的形式給大家介紹的非常詳細(xì),對(duì)大家的學(xué)習(xí)或工作具有一定的參考借鑒價(jià)值,需要的朋友可以參考下
    2020-08-08
  • Python實(shí)現(xiàn)問(wèn)題回答小游戲

    Python實(shí)現(xiàn)問(wèn)題回答小游戲

    這篇文章主要介紹了利用Python制作一個(gè)簡(jiǎn)單的知識(shí)競(jìng)賽小游戲,可以實(shí)現(xiàn)回答問(wèn)題功能,文中的示例代碼介紹詳細(xì),感興趣的同學(xué)快跟隨小編一起學(xué)習(xí)吧
    2021-12-12

最新評(píng)論