现成的网络结构主要包括以下几种:
- AlexNet
- VGG
- ResNet
- SqueezeNet
- DenseNet
- Inception v3
- GoogLeNet
- ShuffleNet v2
- MobileNet v2
- ResNeXt
- Wide ResNet
- MNASNet
以resnet50为例,其最简单的调用方式就是:↓
model=torchvision.models.resnet50()
不需要初始化什么参数,这样得到的model就是默认的resnet50结构,可以直接用来做分类训练。
但是还提供了预训练参数权重,只需要:↓
model=torchvision.models.resnet50(pretrained=True)
这种方式会直接从官网上进行预训练权重的下载,该预训练权重是由ImageNet-1K(标准输入224x224)而来,由于其本质是一个分类网络,所以最后的全连接层大小为1000.
但是这种方式会被警告,因为pretrained参数可能以后会被舍弃,建议我们使用weight参数。
这样的话我们有两种方法
第一可以直接通过官网先把预训练权重下载好:↓
model=models.resnet50()
weight=torch.load("resnet50.pth")
model.load_state_dict(weight)
第二利用网络的weights参数:↓
from torchvision.models import resnet50,ResNet50_Weights
model=resnet50(weights=ResNet50_Weights.DEFAULT)
导入的ResNet50_Weights
其实也不是现成的参数,它里面实际就是预训练权重的地址,它也是现下载的。不管是哪种现成网路的权重,一般在里面都配套了两套权重,一套是论文里面原汁原味的权重,一套是经过一些小技巧,在不改变网络结构的前提下进行改进的一套权重,而DEFAULT(默认值)就选择的是高性能的那一套:
model_1=resnet50(weights=ResNet50_Weights.IMAGENET1K_V1)
model_2=resnet50(weights=ResNet50_Weights.IMAGENET1K_V2)
其中ResNet50_Weights.DEFAULT
就是ResNet50_Weights.IMAGENET1K_V2
如果我们想要直接使用现成的网络,不管是分类网络也好,目标检测网络,语义分割网络,还需要注意的就是预处理的步骤,即需要将检测的图片转化成网络训练是输入的格式,这个步骤也在ResNet50_Weights
中:↓
weights=ResNet50_Weights.DEFAULT
preprocess=weight.transforms()
batch=preprocess(img).unsequeeze(0)
最后将结果映射回来即可:↓
prediction = model(batch).squeeze(0).softmax(0)
class_id = prediction.argmax().item()
score = prediction[class_id].item()
category_name = weights.meta["categories"][class_id]
其他网络的具体操作可以查看利用torch.models实现分类,目标检测,语义分割任务
但是的但是,我们基本不会使用原始的网络来进行分类,一般使用该网络进行特征的提取,换句话说它的分类层对于我们的用处不大。那么下面分为两种情况来介绍如何改造现成的网络:
将resnet50改造为其他分类网络
如果我们只想要训练分类层,那么先直接冻结网络里面所有的权重:↓
resnet50=models.resnet50(pretrained=True)
for param in resnet50.parameters():
param.requires_grad=False
当我们直接print出resnet50的网络结构以后,最后几行是这样的↓
(avgpool): AdaptiveAvgPool2d(output_size=(1, 1))
(fc): Linear(in_features=2048, out_features=1000, bias=True)
这里面的fc就是我们需要更改的全连接层,其中fc其实就是全连接层名称,也可以认为是一个初始化变量,所以我们只需要改变这个初始化变量就可以了:↓
num_features=resnet50.fc.in_features
resnet50.fc=nn.Linear(num_features,10)#假设我们只需要分类10类
也可以再添加一层softmax,写成:↓
resnet50.fc=nn.Sequential(nn.Linear(num_features,10),
nn.LogSoftmax(dim=1))
使用resnet50部分结构组成下游网络的backbone(重点)
model=resnet50(weights=ResNet50_Weights.IMAGENET1K_V2)
feature_maps=nn.Sequential(*list(model.children())[:7])
imgs=torch.randn([2,3,224,224])
output=feature_maps(imgs)
就这么简单。文章来源:https://www.toymoban.com/news/detail-618636.html
首先model.children()是一个很好用的接口,其只会将model的最外层结构分别输出,resnet50最外层一共有10个模块,我这里只去了前面7个,取出来以后利用nn.Sequential进行连接,就可以只使用其中某部分的结构了,具体可以参考
迁移学习文章来源地址https://www.toymoban.com/news/detail-618636.html
到了这里,关于利用torchvision.models调用现成的网络的文章就介绍完了。如果您还想了解更多内容,请在右上角搜索TOY模板网以前的文章或继续浏览下面的相关文章,希望大家以后多多支持TOY模板网!