好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > 對pytorch中不定長序列補齊的操作

對pytorch中不定長序列補齊的操作

熱門標簽:河北防封卡電銷卡 開封語音外呼系統代理商 開封自動外呼系統怎么收費 天津電話機器人公司 手機網頁嵌入地圖標注位置 電銷機器人的風險 應電話機器人打電話違法嗎 400電話辦理哪種 地圖標注線上如何操作

第二種方法通常是在load一個batch數據時, 在collate_fn中進行補齊的.

以下給出兩種思路:

第一種思路是比較容易想到的, 就是對一個batch的樣本進行遍歷, 然后使用np.pad對每一個樣本進行補齊.

for unit in data:
        mask = np.zeros(max_length)
        s_len = len(unit[0])    # calculate the length of sequence in each unit
        mask[: s_len] = 1
        unit[0] = np.pad(unit[0], (0, max_length - s_len), 'constant', constant_values=(0, 0))
        mask_batch.append(mask)

但是這種方法在batch size很大的情況下會很慢, 因為使用for循環進行了遍歷. 我在實際用的時候, 當batch_size=128時, 一個batch的加載時間甚至是一個batch訓練時間的幾倍!

因此, 我想到如何并行地對序列進行補齊. 第二種方法的思路就是使用torch中自帶的pad_sequence來并行補齊.

batch_sequence = list(map(lambda x: torch.tensor(x[findex]), x_data))
batch_data[feat] = torch.nn.utils.rnn.pad_sequence(batch_sequence).T

可以看到這里使用pad_sequence一次性對整個batch進行補齊. 下面對這個函數進行詳細說明.

pad_sequence詳解

from torch.utils.rnn import pad_sequence
a = torch.ones(10)
b = torch.ones(6)
c = torch.ones(20)
abc = pad_sequence([a,b,c])  # shape(20, 3)

注意這個函數接收的是一個元素為tensor的列表, 而不是tensor.

最終, 這個函數會將所有tensor轉換為tensor矩陣#shape(max_length, batch_size). 因此, 在使用完后通常還需要轉置一下.

補充:PyTorch中用于RNN變長序列填充函數的簡單使用

1、PyTorch中RNN變長序列的問題   

RNN在處理變長序列時有它的優勢。在分批處理變長序列問題時,每個序列的長度往往不會完全相等,因此針對一個batch中序列長度不一的情況,需要對某些序列進行PAD(填充)操作,使得一個batch內的序列長度相等。   

PyTorch中的pack_padded_sequence和pad_packed_sequence可處理上述問題,以下用一個示例演示這兩個函數的簡單使用方法。

2、填充函數簡介

“壓縮”函數:用于將填充后的序列tensor進行壓縮,方便RNN處理

pack_padded_sequence(input, lengths, batch_first=False, enforce_sorted=True)

(1)input->被“壓縮”的tensor,維度一般為[batch_size,_max_seq_len[,embedding_size]]或者[max_seq_len,batch_size[,embedding_size]]

若input維度為:[batch_size,_max_seq_len[,embedding_size]]

要將batch_first設置為True,這表示input的第一個維度為batch的數量

若input維度為:[max_seq_len,batch_size[,embedding_size]]

要將batch_first設置為False(默認值),這表示input的第一個維度不是batch的數量

(2)lengths->lengths參數表示一個batch中序列真實長度,類型為列表,在例子中詳細說明

(3)batch_first->表示batch的數量是否在input的第一維度,默認值為False

(4)enforce_sorted->input中的會自動按照lengths的情況進行排序,默認值為

“解壓”函數:該函數與"壓縮函數"相對應,經“壓縮函數”處理的輸入經過RNN得到的最終結果可以利用該函數進行“解壓”

pad_packed_sequence(sequence, batch_first=False, padding_value=0.0, total_length=None):

(1)sequence->壓縮函數處理過的input經RNN后得到的結果

(2)batch_first->與“壓縮”函數中的batch_first一致

(3)padding_value->序列進行填充時使用的索引,默認為0

(4)total_length->暫略

3、PyTorch代碼示例

代碼如下(示例):

# Create by leslie_miao on 2020/11/1
import torch
import torch.nn as nn
d_model = 10 # 詞嵌入的維度
hidden_size = 20 # lstm隱藏層單元數量
layer_num = 1 # lstm層數
# 輸入inputs,維度為[batch_size,max_seq_len]=[3,4],其中0代表填充
# 該input包含3個序列,每個序列的真實長度分別為: 4 3 2
inputs = torch.tensor([[1,2,3,4],[1,2,3,0],[1,2,0,0]])
embedding = nn.Embedding(5,d_model)
# 獲取詞嵌入后的inputs 當前inputs的維度為[batch_size,max_seq_len,d_model]=[3,4,10]
inputs = embedding(inputs)
# 查看inputs的維度
print(inputs.size())
# print: torch.Size([3, 4, 10])
# 利用“壓縮”函數對inputs進行壓縮處理,[4,3,2]分別為inputs中序列的真實長度,batch_first=True表示inputs的第一維是batch_size
inputs = nn.utils.rnn.pack_padded_sequence(inputs,lengths=[4,3,2],batch_first=True)
# 查看經“壓縮”函數處理過的inputs的維度
print(inputs[0].size())
# print: torch.Size([9, 10])
# 定義RNN網絡
network = nn.LSTM(input_size=d_model,hidden_size=hidden_size,batch_first=True,num_layers=layer_num)
# 初始化RNN相關門參數
c_0 = torch.zeros((layer_num,3,hidden_size))
h_0 = torch.zeros((layer_num,3,hidden_size)) # [rnn層數,batch_size,hidden_size]
# inputs經過RNN網絡后得到的結果outputs
output,(h_n,c_n) = network(inputs,(h_0,c_0))
#查看未經“解壓函數”處理的outputs維度
print(output[0].size())
# print: torch.Size([9, 20])
# 利用“解壓函數”對outputs進行解壓操作,其中batch_first設置與“壓縮函數相同”,padding_value為0
output = nn.utils.rnn.pad_packed_sequence(output,batch_first=True,padding_value=0)
# 查看經“解壓函數”處理的outputs維度
print(output[0].size())
# print:torch.Size([3, 4, 20])

總結

介紹了PyTorch中兩個應用于RNN變長序列填充的函數pack_padded_sequence和 pad_packed_sequence的簡單使用方法,歡迎指正交流!

您可能感興趣的文章:
  • pytorch對可變長度序列的處理方法詳解
  • pytorch中的nn.ZeroPad2d()零填充函數實例詳解
  • 詳解PyTorch中Tensor的高階操作

標簽:江蘇 駐馬店 六盤水 山東 成都 蘭州 常州 宿遷

巨人網絡通訊聲明:本文標題《對pytorch中不定長序列補齊的操作》,本文關鍵詞  對,pytorch,中,不定,長,序列,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《對pytorch中不定長序列補齊的操作》相關的同類信息!
  • 本頁收集關于對pytorch中不定長序列補齊的操作的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 动漫激情吻胸吃奶免费视频| japanese黑人高清| 想要人妻的上司HD| 山东浩浩做o| 内裤子奇缘大目录全集| 粉嫩虎白女张开腿任我玩弄下药| 做爰无码午夜福利免费| 久久高清精品| 打屁股视频??网站脱裤子打屁股 | JapaneseAV在线无码| Chinese乱子伦国语对话XXX| 韩国主播青草 svip 第 6集| 情迷女人香小说完整版下载| 轻一点好痛好深嗯啊进去了| 中文字幕av久久波多野结| 《艳乳欲乱2 》动漫| 绿帽子巨物夺娇妻借种| japanesetube日本护士潮水| 狠狠干狠狠色| 欧美熟妇情趣办公室XXⅩ视频| 欧美xxxxw| 换租妻小雯怀孕篇| 中国一级特黄的片子免费| 梁朝伟吃奶摸下边视频| 国精产品一区一区二区三| 伦理片mp4| 超级乱淫伦短篇在车上| 亚洲情XO亚洲XO无码| 侍妾们的变态调教| 国产一级爱| 国产精品老女人精品视| 色哟哟app| 极品尤物被啪到呻吟抽搐| 精品人妻少妇嫩草AV无码专区| 免费五级在线观看| 国产精品特黄一级国产大片| 国产午夜一级A片三男一女| 年轻漂亮的?子6| 焚身| 一本大道香蕉中文日本不卡高清二区| 国外的短视频平台|