失眠网,内容丰富有趣,生活中的好帮手!
失眠网 > Pytorch 基于ResNet-18的物体分类(使用CIFAR-10数据集)

Pytorch 基于ResNet-18的物体分类(使用CIFAR-10数据集)

时间:2022-05-22 14:46:22

相关推荐

Pytorch 基于ResNet-18的物体分类(使用CIFAR-10数据集)

✅作者简介:人工智能专业本科在读,喜欢计算机与编程,写博客记录自己的学习历程。

🍎个人主页:小嗷犬的博客

🍊个人信条:为天地立心,为生民立命,为往圣继绝学,为万世开太平。

🥭本文内容:Pytorch 基于ResNet-18的物体分类(使用CIFAR-10数据集)

更多内容请见👇

Pytorch 基于VGG-16的服饰识别(使用Fashion-MNIST数据集)Pytorch 基于NiN的服饰识别(使用Fashion-MNIST数据集)Pytorch 基于ResNet-18的服饰识别(使用Fashion-MNIST数据集)

本文目录

介绍1.导入相关库2.定义 ResNet-18 网络结构3.下载并配置数据集和加载器4.定义训练函数5.训练模型(或加载模型)6.可视化展示7.预测图

介绍

使用到的库:

Pytorchmatplotlibd2l

d2l为斯坦福大学李沐教授打包的一个库,其中包含一些深度学习中常用的函数方法。

安装:

pip install matplotlibpip install d2l

Pytorch环境请自行配置。

数据集:

CIFAR-10是一个更接近普适物体的彩色图像数据集。CIFAR-10是由Hinton的学生Alex KrizhevskyIlya Sutskever整理的一个用于识别普适物体的小型数据集。一共包含 10 个类别的 RGB 彩色图片:飞机( airplane )、汽车( automobile )、鸟类( bird )、猫( cat )、鹿( deer )、狗( dog )、蛙类( frog )、马( horse )、船( ship )和卡车( truck )。每个图片的尺寸为32 × 32,每个类别有 6000 个图像,数据集中一共有 50000 张训练图片和 10000 张测试图片。

下载地址:

官网(较慢):http://www.cs.toronto.edu/~kriz/cifar.html

CSDN:/download/qq_63585949/86928673

也可以使用 Pytorch 自动下载,速度基本等于官网速度。

残差神经网络(ResNet)是由微软研究院的何恺明张祥雨任少卿孙剑等人提出的。ResNet在 年的 ILSVRC(ImageNet Large Scale Visual Recognition Challenge)中取得了冠军。

残差神经网络的主要贡献是发现了“退化现象(Degradation)”,并针对退化现象发明了 “快捷连接(Shortcut connection)”,极大的消除了深度过大的神经网络训练困难问题。神经网络的“深度”首次突破了 100 层、最大的神经网络甚至超过了 1000 层。

正常块(左)与残差块(右):

两种具体结构(包含以及不包含 1*1 卷积层的残差块):

ResNet-18网络结构:

1.导入相关库

import torchfrom torch import nnfrom torch.nn import functional as Ffrom torch.utils.data import DataLoaderfrom torchvision import datasets, transformsimport matplotlib.pyplot as pltfrom d2l import torch as d2l

2.定义 ResNet-18 网络结构

class Residual(nn.Module):# 残差块def __init__(self, input_channels, num_channels,use_1x1conv=False, strides=1):super().__init__()self.conv1 = nn.Conv2d(input_channels, num_channels,kernel_size=3, padding=1, stride=strides)self.conv2 = nn.Conv2d(num_channels, num_channels,kernel_size=3, padding=1)if use_1x1conv:self.conv3 = nn.Conv2d(input_channels, num_channels,kernel_size=1, stride=strides)else:self.conv3 = Noneself.bn1 = nn.BatchNorm2d(num_channels)self.bn2 = nn.BatchNorm2d(num_channels)def forward(self, X):Y = F.relu(self.bn1(self.conv1(X)))Y = self.bn2(self.conv2(Y))if self.conv3:X = self.conv3(X)Y += Xreturn F.relu(Y)# ResNet-18b1 = nn.Sequential(nn.Conv2d(3, 64, kernel_size=7, stride=2, padding=3),nn.BatchNorm2d(64), nn.ReLU(),nn.MaxPool2d(kernel_size=3, stride=2, padding=1))def resnet_block(input_channels, num_channels, num_residuals,first_block=False):blk = []for i in range(num_residuals):if i == 0 and not first_block:blk.append(Residual(input_channels, num_channels,use_1x1conv=True, strides=2))else:blk.append(Residual(num_channels, num_channels))return blkb2 = nn.Sequential(*resnet_block(64, 64, 2, first_block=True))b3 = nn.Sequential(*resnet_block(64, 128, 2))b4 = nn.Sequential(*resnet_block(128, 256, 2))b5 = nn.Sequential(*resnet_block(256, 512, 2))net = nn.Sequential(b1, b2, b3, b4, b5,nn.AdaptiveAvgPool2d((1, 1)),nn.Flatten(), nn.Linear(512, 10))

3.下载并配置数据集和加载器

# 下载并配置数据集trans = pose([transforms.Resize((96, 96)), transforms.ToTensor()])train_dataset = datasets.CIFAR10(root=r'E:\Deep Learning\dataset', train=True, transform=trans)test_dataset = datasets.CIFAR10(root=r'E:\Deep Learning\dataset', train=False, transform=trans)# 配置数据加载器batch_size = 64train_loader = DataLoader(dataset=train_dataset,batch_size=batch_size, shuffle=True)test_loader = DataLoader(dataset=test_dataset,batch_size=batch_size, shuffle=True)

4.定义训练函数

训练完成后会保存模型,可以修改模型的保存路径。

def train(net, train_iter, test_iter, epochs, lr, device):def init_weights(m):if type(m) == nn.Linear or type(m) == nn.Conv2d:nn.init.xavier_uniform_(m.weight)net.apply(init_weights)print(f'Training on:[{device}]')net.to(device)optimizer = torch.optim.Adam(net.parameters(), lr=lr)loss = nn.CrossEntropyLoss()timer, num_batches = d2l.Timer(), len(train_iter)for epoch in range(epochs):# 训练损失之和,训练准确率之和,样本数metric = d2l.Accumulator(3)net.train()for i, (X, y) in enumerate(train_iter):timer.start()optimizer.zero_grad()X, y = X.to(device), y.to(device)y_hat = net(X)l = loss(y_hat, y)l.backward()optimizer.step()with torch.no_grad():metric.add(l * X.shape[0], d2l.accuracy(y_hat, y), X.shape[0])timer.stop()train_l = metric[0] / metric[2]train_acc = metric[1] / metric[2]if (i + 1) % (num_batches // 30) == 0 or i == num_batches - 1:print(f'Epoch: {epoch+1}, Step: {i+1}, Loss: {train_l:.4f}')test_acc = d2l.evaluate_accuracy_gpu(net, test_iter)print(f'Train Accuracy: {train_acc*100:.2f}%, Test Accuracy: {test_acc*100:.2f}%')print(f'{metric[2] * epochs / timer.sum():.1f} examples/sec 'f'on: [{str(device)}]')torch.save(net.state_dict(),f"E:\\Deep Learning\\model\\ResNet-18_CIFAR-10_Epoch{epochs}_Accuracy{test_acc*100:.2f}%.pth")

5.训练模型(或加载模型)

如果环境正确配置了 CUDA,则会由 GPU 进行训练。

加载模型需要根据自身情况修改路径。

epochs, lr = 20, 0.001device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")train(net, train_loader, test_loader, epochs, lr, device)# 加载保存的模型# net.load_state_dict(torch.load(r"E:\Deep Learning\model\ResNet-18_CIFAR-10_Epoch20_Accuracy80.46%.pth"))

6.可视化展示

def show_predict():# 预测结果图像可视化net.to(device)loader = DataLoader(dataset=test_dataset, batch_size=1, shuffle=True)plt.figure(figsize=(12, 8))name = ('airplane', 'automobile', 'bird', 'cat','deer', 'dog', 'frog', 'horse', 'ship', 'truck')for i in range(9):(images, labels) = next(iter(loader))images = images.to(device)labels = labels.to(device)outputs = net(images)_, predicted = torch.max(outputs.data, 1)title = f"Predicted: {name[int(predicted[0])]}, True: {name[int(labels[0])]}"plt.subplot(3, 3, i + 1)plt.imshow(images.cpu()[0].permute(1, 2, 0))plt.title(title)plt.xticks([])plt.yticks([])plt.show()show_predict()

7.预测图

结果来自训练轮数epochs=20,准确率Accuracy=80.46%ResNet-18模型:

如果觉得《Pytorch 基于ResNet-18的物体分类(使用CIFAR-10数据集)》对你有帮助,请点赞、收藏,并留下你的观点哦!

本内容不代表本网观点和政治立场,如有侵犯你的权益请联系我们处理。
网友评论
网友评论仅供其表达个人看法,并不表明网站立场。