好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > 對Pytorch 中的contiguous理解說明

對Pytorch 中的contiguous理解說明

熱門標簽:舉辦過冬奧會的城市地圖標注 阿里電話機器人對話 正安縣地圖標注app 遼寧智能外呼系統需要多少錢 400電話申請資格 地圖地圖標注有嘆號 螳螂科技外呼系統怎么用 qt百度地圖標注 電銷機器人系統廠家鄭州

最近遇到這個函數,但查的中文博客里的解釋貌似不是很到位,這里翻譯一下stackoverflow上的回答并加上自己的理解。

在pytorch中,只有很少幾個操作是不改變tensor的內容本身,而只是重新定義下標與元素的對應關系的。換句話說,這種操作不進行數據拷貝和數據的改變,變的是元數據。

這些操作是:

narrow(),view(),expand()和transpose()

舉個栗子,在使用transpose()進行轉置操作時,pytorch并不會創建新的、轉置后的tensor,而是修改了tensor中的一些屬性(也就是元數據),使得此時的offset和stride是與轉置tensor相對應的。

轉置的tensor和原tensor的內存是共享的!

為了證明這一點,我們來看下面的代碼:

x = torch.randn(3, 2)
y = x.transpose(x, 0, 1)
x[0, 0] = 233
print(y[0, 0])
# print 233

可以看到,改變了y的元素的值的同時,x的元素的值也發生了變化。

也就是說,經過上述操作后得到的tensor,它內部數據的布局方式和從頭開始創建一個這樣的常規的tensor的布局方式是不一樣的!于是…這就有contiguous()的用武之地了。

在上面的例子中,x是contiguous的,但y不是(因為內部數據不是通常的布局方式)。

注意不要被contiguous的字面意思“連續的”誤解,tensor中數據還是在內存中一塊區域里,只是布局的問題!

當調用contiguous()時,會強制拷貝一份tensor,讓它的布局和從頭創建的一毛一樣。

一般來說這一點不用太擔心,如果你沒在需要調用contiguous()的地方調用contiguous(),運行時會提示你:

RuntimeError: input is not contiguous

只要看到這個錯誤提示,加上contiguous()就好啦~

補充:pytorch之expand,gather,squeeze,sum,contiguous,softmax,max,argmax

gather

torch.gather(input,dim,index,out=None)。對指定維進行索引。比如4*3的張量,對dim=1進行索引,那么index的取值范圍就是0~2.

input是一個張量,index是索引張量。input和index的size要么全部維度都相同,要么指定的dim那一維度值不同。輸出為和index大小相同的張量。

import torch
a=torch.tensor([[.1,.2,.3],
        [1.1,1.2,1.3],
        [2.1,2.2,2.3],
        [3.1,3.2,3.3]])
b=torch.LongTensor([[1,2,1],
          [2,2,2],
          [2,2,2],
          [1,1,0]])
b=b.view(4,3) 
print(a.gather(1,b))
print(a.gather(0,b))
c=torch.LongTensor([1,2,0,1])
c=c.view(4,1)
print(a.gather(1,c))

輸出:

tensor([[ 0.2000, 0.3000, 0.2000],
    [ 1.3000, 1.3000, 1.3000],
    [ 2.3000, 2.3000, 2.3000],
    [ 3.2000, 3.2000, 3.1000]])
tensor([[ 1.1000, 2.2000, 1.3000],
    [ 2.1000, 2.2000, 2.3000],
    [ 2.1000, 2.2000, 2.3000],
    [ 1.1000, 1.2000, 0.3000]])
tensor([[ 0.2000],
    [ 1.3000],
    [ 2.1000],
    [ 3.2000]])

squeeze

將維度為1的壓縮掉。如size為(3,1,1,2),壓縮之后為(3,2)

import torch
a=torch.randn(2,1,1,3)
print(a)
print(a.squeeze())

輸出:

tensor([[[[-0.2320, 0.9513, 1.1613]]],
    [[[ 0.0901, 0.9613, -0.9344]]]])
tensor([[-0.2320, 0.9513, 1.1613],
    [ 0.0901, 0.9613, -0.9344]])

expand

擴展某個size為1的維度。如(2,2,1)擴展為(2,2,3)

import torch
x=torch.randn(2,2,1)
print(x)
y=x.expand(2,2,3)
print(y)

輸出:

tensor([[[ 0.0608],
     [ 2.2106]],
 
    [[-1.9287],
     [ 0.8748]]])
tensor([[[ 0.0608, 0.0608, 0.0608],
     [ 2.2106, 2.2106, 2.2106]],
 
    [[-1.9287, -1.9287, -1.9287],
     [ 0.8748, 0.8748, 0.8748]]])

sum

size為(m,n,d)的張量,dim=1時,輸出為size為(m,d)的張量

import torch
a=torch.tensor([[[1,2,3],[4,8,12]],[[1,2,3],[4,8,12]]])
print(a.sum())
print(a.sum(dim=1))

輸出:

tensor(60)
tensor([[ 5, 10, 15],
    [ 5, 10, 15]])

contiguous

返回一個內存為連續的張量,如本身就是連續的,返回它自己。一般用在view()函數之前,因為view()要求調用張量是連續的。

可以通過is_contiguous查看張量內存是否連續。

import torch
a=torch.tensor([[[1,2,3],[4,8,12]],[[1,2,3],[4,8,12]]])
print(a.is_contiguous) 
print(a.contiguous().view(4,3))

輸出:

built-in method is_contiguous of Tensor object at 0x7f4b5e35afa0>
tensor([[ 1,  2,  3],
    [ 4,  8, 12],
    [ 1,  2,  3],
    [ 4,  8, 12]])

softmax

假設數組V有C個元素。對其進行softmax等價于將V的每個元素的指數除以所有元素的指數之和。這會使值落在區間(0,1)上,并且和為1。

import torch
import torch.nn.functional as F 
a=torch.tensor([[1.,1],[2,1],[3,1],[1,2],[1,3]])
b=F.softmax(a,dim=1)
print(b)

輸出:

tensor([[ 0.5000, 0.5000],
    [ 0.7311, 0.2689],
    [ 0.8808, 0.1192],
    [ 0.2689, 0.7311],
    [ 0.1192, 0.8808]])

max

返回最大值,或指定維度的最大值以及index

import torch
a=torch.tensor([[.1,.2,.3],
        [1.1,1.2,1.3],
        [2.1,2.2,2.3],
        [3.1,3.2,3.3]])
print(a.max(dim=1))
print(a.max())

輸出:

(tensor([ 0.3000, 1.3000, 2.3000, 3.3000]), tensor([ 2, 2, 2, 2]))
tensor(3.3000)

argmax

返回最大值的index

import torch
a=torch.tensor([[.1,.2,.3],
        [1.1,1.2,1.3],
        [2.1,2.2,2.3],
        [3.1,3.2,3.3]])
print(a.argmax(dim=1))
print(a.argmax())

輸出:

tensor([ 2, 2, 2, 2])
tensor(11)

以上為個人經驗,希望能給大家一個參考,也希望大家多多支持腳本之家。如有錯誤或未考慮完全的地方,望不吝賜教。

您可能感興趣的文章:
  • Pytorch之contiguous的用法
  • 基于pytorch中的Sequential用法說明
  • Pytorch Tensor基本數學運算詳解
  • 詳解PyTorch中Tensor的高階操作

標簽:隨州 信陽 阜新 濟源 興安盟 淘寶好評回訪 合肥 昭通

巨人網絡通訊聲明:本文標題《對Pytorch 中的contiguous理解說明》,本文關鍵詞  對,Pytorch,中的,contiguous,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《對Pytorch 中的contiguous理解說明》相關的同類信息!
  • 本頁收集關于對Pytorch 中的contiguous理解說明的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 国产未成女年一区二区| 国产一级爱c片免费观看| 午夜天堂在线视频| 性另类交性另类交| 台湾永久lingerieshow舞蹈| 欧州性色妇女婬AABB | 久久夜色精品国产噜噜亚洲a| 亚洲va 国产va 欧美va 一| 就算爸爸也想做| 抱起来撞到哭宫交高H| 丝袜 中出 制服 人妻 美腿| 台湾性视频| 无码做爰在线观网站直播下载| 午夜色综合| 国产伦精品一品二品三品哪个好| 女人任你躁x7x7视频| 盼盼解罩无删减完整版| 龚玥菲三级在线观看未删| 久久A片啪啪性刺激流水| 无人区完整版高清在线观看| 娇喘(师生,出轨)| 天天草天天射| 夏目春彩无码ADN212| 亚洲人撒尿TXXXXXXX网站| 80s理论片| 人人爱人人澡| 色戒HD未删减版在线| yy4488无码亚洲私人影院| 天天躁日日躁狠狠躁视频下载播二 | 亚洲手机国产精品| 中文字幕亚洲第一| 国精产品一区一区三区四区有限 | 一炕四女被窝交换啪啪| 最新男同志网站freeideos| 男女一边摸一边脱一边脱动态图 | 我与表组疯狂的性故事小说| 里番acg里番本子男同| 国产精品无套抽出白浆来免费软件 | 熟妇人妻中文字幕无码老熟妇| 福利视频网站导航| 久久久久国产一级毛片高清版1|