好湿?好紧?好多水好爽自慰,久久久噜久噜久久综合,成人做爰A片免费看黄冈,机机对机机30分钟无遮挡

主頁 > 知識庫 > pytorch教程resnet.py的實現文件源碼分析

pytorch教程resnet.py的實現文件源碼分析

熱門標簽:獲客智能電銷機器人 不錯的400電話辦理 徐州天音防封電銷卡 佛山防封外呼系統收費 南昌辦理400電話怎么安裝 鄭州智能外呼系統運營商 湛江電銷防封卡 哈爾濱外呼系統代理商 電話機器人適用業務

調用pytorch內置的模型的方法

import torchvision
model = torchvision.models.resnet50(pretrained=True)

這樣就導入了resnet50的預訓練模型了。如果只需要網絡結構,不需要用預訓練模型的參數來初始化

那么就是:

model = torchvision.models.resnet50(pretrained=False)

如果要導入densenet模型也是同樣的道理

比如導入densenet169,且不需要是預訓練的模型:

model = torchvision.models.densenet169(pretrained=False)

由于pretrained參數默認是False,所以等價于:

model = torchvision.models.densenet169()

不過為了代碼清晰,最好還是加上參數賦值。

解讀模型源碼Resnet.py

包含的庫文件

import torch.nn as nn
import math
import torch.utils.model_zoo as model_zoo

該庫定義了6種Resnet的網絡結構

包括

__all__ = ['ResNet', 'resnet18', 'resnet34', 'resnet50',  'resnet101',  'resnet152']

每種網絡都有訓練好的可以直接用的.pth參數文件

__all__ = ['ResNet', 'resnet18', 'resnet34', 'resnet50',  'resnet101',  'resnet152']

Resnet中大多使用3*3的卷積定義如下

def conv3x3(in_planes, out_planes, stride=1):   
"""3x3 convolution with padding"""   
return nn.Conv2d(in_planes, out_planes, kernel_size=3, 
stride=stride, padding=1, bias=False)

該函數繼承自nn網絡中的2維卷積,這樣做主要是為了方便,少寫參數參數由原來的6個變成了3個

輸出圖與輸入圖長寬保持一致

如何定義不同大小的Resnet網絡

Resnet類是一個基類,
所謂的"Resnet18", ‘resnet34', ‘resnet50', ‘resnet101', 'resnet152'只是Resnet類初始化的時候使用了不同的參數,理論上我們可以根據Resnet類定義任意大小的Resnet網絡
下面先看看這些不同大小的Resnet網絡是如何定義的

定義Resnet18

def resnet18(pretrained=False, **kwargs):  
"""
Constructs a ResNet-18 model.    
Args:    
pretrained (bool):If True, returns a model pre-trained on ImageNet   
"""    
model = ResNet(BasicBlock, [2, 2, 2, 2], **kwargs)    
if pretrained:        
    model.load_state_dict(model_zoo.load_url(model_urls['resnet18']))   
 return model

定義Resnet34

def resnet34(pretrained=False, **kwargs):    
"""Constructs a ResNet-34 model.   
Args:        pretrained (bool): If True, returns a model pre-trained on ImageNet    """   
model = ResNet(BasicBlock, [3, 4, 6, 3], **kwargs)  
if pretrained:        
    model.load_state_dict(model_zoo.load_url(model_urls['resnet34']))    
 return model

我們發現Resnet18和Resnet34的定義幾乎是一樣的,下面我們把Resnet18,Resnet34,Resnet50,Resnet101,Resnet152,不一樣的部分寫在一塊進行對比

model = ResNet(BasicBlock, [2, 2, 2, 2], **kwargs)    #Resnet18
model = ResNet(BasicBlock, [3, 4, 6, 3], **kwargs)    #Resnet34
model = ResNet(Bottleneck, [3, 4, 6, 3], **kwargs)    #Eesnt50
model = ResNet(Bottleneck, [3, 4, 23, 3], **kwargs)  #Resnet101
model = ResNet(Bottleneck, [3, 8, 36, 3], **kwargs)  #Resnet152

代碼看起來非常的簡潔工整,

其他resnet18、resnet101等函數和resnet18基本類似,差別主要是在:

1、構建網絡結構的時候block的參數不一樣,比如resnet18中是[2, 2, 2, 2],resnet101中是[3, 4, 23, 3]。

2、調用的block類不一樣,比如在resnet50、resnet101、resnet152中調用的是Bottleneck類,而在resnet18和resnet34中調用的是BasicBlock類,這兩個類的區別主要是在residual結果中卷積層的數量不同,這個是和網絡結構相關的,后面會詳細介紹。

3、如果下載預訓練模型的話,model_urls字典的鍵不一樣,對應不同的預訓練模型。因此接下來分別看看如何構建網絡結構和如何導入預訓練模型。

Resnet類

構建ResNet網絡是通過ResNet這個類進行的。ResNet類是繼承PyTorch中網絡的基類:torch.nn.Module。

構建Resnet類主要在于重寫 init() forward() 方法。

我們構建的所有網絡比如:VGGAlexnet等都需要重寫這兩個方法,這兩個方法很重要

看起來Resne類是整個文檔的核心

下面我們就要研究一下Resnet基類是如何實現的

Resnet類采用了pytorch定義網絡模型的標準結構,包含

iinit()方法: 定義了網絡的各個層
forward()方法: 定義了前向傳播過程

這兩個方法的用法,這個可以查看pytorch的官方文檔就可以明白

在Resnet類中,還包含一個自定義的方法make_layer()方法

是用來構建ResNet網絡中的4個blocks

_make_layer方法的第一個輸入block是BottleneckBasicBlock

第二個輸入是該blocks的輸出channel

第三個輸入是每個blocks中包含多少個residual子結構,因此layers這個列表就是前面resnet50的[3, 4, 6, 3]。

_make_layer方法中比較重要的兩行代碼是:

layers.append(block(self.inplanes, planes, stride, downsample))

該部分是將每個blocks的第一個residual結構保存在layers列表中。

 for i in range(1, blocks): layers.append(block(self.inplanes, planes))

該部分是將每個blocks的剩下residual 結構保存在layers列表中,這樣就完成了一個blocks的構造。這兩行代碼中都是通過Bottleneck這個類來完成每個residual的構建

接下來介紹Bottleneck類

class ResNet(nn.Module):
    def __init__(self, block, layers, num_classes=1000):
        self.inplanes = 64
        super(ResNet, self).__init__()
        self.conv1 = nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3,
                               bias=False)
        self.bn1 = nn.BatchNorm2d(64)
        self.relu = nn.ReLU(inplace=True)
        self.maxpool = nn.MaxPool2d(kernel_size=3, stride=2, padding=1)
        self.layer1 = self._make_layer(block, 64, layers[0])
        self.layer2 = self._make_layer(block, 128, layers[1], stride=2)
        self.layer3 = self._make_layer(block, 256, layers[2], stride=2)
        self.layer4 = self._make_layer(block, 512, layers[3], stride=2)
        self.avgpool = nn.AvgPool2d(7, stride=1)
        self.fc = nn.Linear(512 * block.expansion, num_classes)
        for m in self.modules():
            if isinstance(m, nn.Conv2d):
                n = m.kernel_size[0] * m.kernel_size[1] * m.out_channels
                m.weight.data.normal_(0, math.sqrt(2. / n))
            elif isinstance(m, nn.BatchNorm2d):
                m.weight.data.fill_(1)
                m.bias.data.zero_()
    def _make_layer(self, block, planes, blocks, stride=1):
        downsample = None
        if stride != 1 or self.inplanes != planes * block.expansion:
            downsample = nn.Sequential(
                nn.Conv2d(self.inplanes, planes * block.expansion,
                          kernel_size=1, stride=stride, bias=False),
                nn.BatchNorm2d(planes * block.expansion),
            )
        layers = []
        layers.append(block(self.inplanes, planes, stride, downsample))
        self.inplanes = planes * block.expansion
        for i in range(1, blocks):
            layers.append(block(self.inplanes, planes))
        return nn.Sequential(*layers)
    def forward(self, x):
        x = self.conv1(x)
        x = self.bn1(x)
        x = self.relu(x)
        x = self.maxpool(x)
        x = self.layer1(x)
        x = self.layer2(x)
        x = self.layer3(x)
        x = self.layer4(x)
        x = self.avgpool(x)
        x = x.view(x.size(0), -1)
        x = self.fc(x)
        return x

下面我們分別看看這兩個過程:

網絡的forward過程

 def forward(self, x):                                #x代表輸入
        x = self.conv1(x)                             #進過卷積層1
        x = self.bn1(x)                                #bn1層
        x = self.relu(x)                                #relu激活
        x = self.maxpool(x)                         #最大池化
        x = self.layer1(x)                            #卷積塊1
        x = self.layer2(x)                           #卷積塊2
        x = self.layer3(x)                          #卷積塊3
        x = self.layer4(x)                          #卷積塊4
        x = self.avgpool(x)                     #平均池化
        x = x.view(x.size(0), -1)               #二維變成變成一維向量
        x = self.fc(x)                             #全連接層
        return x

里面的大部分我們都可以理解,只有layer1-layer4是Resnet網絡自己定義的,
它也是Resnet殘差連接的精髓所在,我們來分析一下layer層是怎么實現的

殘差Block連接是如何實現的

從前面的ResNet類可以看出,在構造ResNet網絡的時候,最重要的是 BasicBlock這個類,因為ResNet是由residual結構組成的,而 BasicBlock類就是完成residual結構的構建。同樣 BasicBlock還是繼承了torch.nn.Module類,且重寫了__init__()和forward()方法。從forward方法可以看出,bottleneck就是我們熟悉的3個主要的卷積層、BN層和激活層,最后的out += residual就是element-wise add的操作。

這部分在 BasicBlock類中實現,我們看看這層是如何前向傳播的

def forward(self, x):
        residual = x
        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu(out)
        out = self.conv2(out)
        out = self.bn2(out)
        if self.downsample is not None:
            residual = self.downsample(x)
        out += residual
        out = self.relu(out)
        return out

我畫個流程圖來表示一下

畫的比較丑,不過基本意思在里面了,

根據論文的描述,x是否需要下采樣由x與out是否大小一樣決定,

假如進過conv2和bn2后的結果我們稱之為 P

假設x的大小為wHchannel1

如果P的大小也是wHchannel1

則無需下采樣
out = relu(P + X)
out的大小為W * H *(channel1+channel2),

如果P的大小是W/2 * H/2 * channel

則X需要下采樣后才能與P相加,
out = relu(P+ X下采樣)
out的大小為W/2 * H/2 * (channel1+channel2)

BasicBlock類和Bottleneck類類似,前者主要是用來構建ResNet18和ResNet34網絡,因為這兩個網絡的residual結構只包含兩個卷積層,沒有Bottleneck類中的bottleneck概念。因此在該類中,第一個卷積層采用的是kernel_size=3的卷積,就是我們之前提到的conv3x3函數。

下面是BasicBlock類的完整代碼

class BasicBlock(nn.Module):
    expansion = 1
    def __init__(self, inplanes, planes, stride=1, downsample=None):
        super(BasicBlock, self).__init__()
        self.conv1 = conv3x3(inplanes, planes, stride)
        self.bn1 = nn.BatchNorm2d(planes)
        self.relu = nn.ReLU(inplace=True)
        self.conv2 = conv3x3(planes, planes)
        self.bn2 = nn.BatchNorm2d(planes)
        self.downsample = downsample
        self.stride = stride
    def forward(self, x):
        residual = x
        out = self.conv1(x)
        out = self.bn1(out)
        out = self.relu(out)
        out = self.conv2(out)
        out = self.bn2(out)
        if self.downsample is not None:
            residual = self.downsample(x)
        out += residual
        out = self.relu(out)
        return out

以上就是pytorch教程resnet.py的實現文件源碼解讀的詳細內容,更多關于pytorch源碼解讀的資料請關注腳本之家其它相關文章!

您可能感興趣的文章:
  • PyTorch實現ResNet50、ResNet101和ResNet152示例
  • Keras實現DenseNet結構操作
  • 關于Keras Dense層整理
  • Python機器學習從ResNet到DenseNet示例詳解

標簽:安康 蕪湖 呂梁 吉安 廣西 紹興 懷化 蘭州

巨人網絡通訊聲明:本文標題《pytorch教程resnet.py的實現文件源碼分析》,本文關鍵詞  pytorch,教程,resnet.py,的,實現,;如發現本文內容存在版權問題,煩請提供相關信息告之我們,我們將及時溝通與處理。本站內容系統采集于網絡,涉及言論、版權與本站無關。
  • 相關文章
  • 下面列出與本文章《pytorch教程resnet.py的實現文件源碼分析》相關的同類信息!
  • 本頁收集關于pytorch教程resnet.py的實現文件源碼分析的相關信息資訊供網民參考!
  • 推薦文章
    主站蜘蛛池模板: 一级毛片aaa| 集精丑女变美系统第一章| 又黄又爽又色视频,免费| 露露性战未删减完整版| 天天爽夜夜爽一区二区三区| 欧美一级Av无码毛片久久精品| 工口里番H全彩肉啪啪| 91伊人久久大香线蕉| 最全又免费的小说app| 女人高潮特黄AAAAA片| 美女喷白浆| 亲子伦视频一区二区三区| 婬荡奶婬H肉承欢床榻| 丁香花在线影院在线播放| 免费一看一级毛片人| 农村+肉+屁股+粗+大+岳| 国产免费久久精品久久久| 公车上扒开双腿吮花蒂| 国产精品女人高潮毛片圣水| 健身教练韩漫无删减| 多人灌满精子怀孕高h| 成年人在线观看视频网站| 紫黑色粗大猛烈深捣H| 清纯漂亮小美女准备啪啪| 公交车强摁做开腿呻吟H视频| 国产全肉乱妇乱子视频| 三级黄色小说视频| 青青草自拍| 男人桶女人app| 99热精品免费| 后宫秀女被调教(高H、NP)| 肥婆BBBBBBBBB高清视频| 久草高清视频| 出差被讨厌上司下药侵犯| 经理办公室艳情满足| 忘穿内裤坐公交被挺进小说| 免费一级A片AAA毛私人玩物| 丝袜女同事用脚弄得好爽| 欧美乱子伦xxxx96| 女人高潮特黄AAAAA片谢了吗| 无码成人性爽xo视频在线观看|