如何在PyTorch和TensorFlow中训练图像分类模型

人工智能 机器学习 新闻
图像分类是计算机视觉的最重要应用之一。它的应用范围包括从自动驾驶汽车中的物体分类到医疗行业中的血细胞识别,从制造业中的缺陷物品识别到建立可以对戴口罩与否的人进行分类的系统。

介绍

图像分类是计算机视觉的最重要应用之一。它的应用范围包括从自动驾驶汽车中的物体分类到医疗行业中的血细胞识别,从制造业中的缺陷物品识别到建立可以对戴口罩与否的人进行分类的系统。在所有这些行业中,图像分类都以一种或另一种方式使用。他们是如何做到的呢?他们使用哪个框架?

你必须已阅读很多有关不同深度学习框架(包括TensorFlow,PyTorch,Keras等)之间差异的信息。TensorFlow和PyTorch无疑是业内最受欢迎的框架。我相信你会发现无穷的资源来学习这些深度学习框架之间的异同。

[[348640]]

在本文中,我们将了解如何在PyTorch和TensorFlow中建立基本的图像分类模型。我们将从PyTorch和TensorFlow的简要概述开始。然后,我们将使用MNIST手写数字分类数据集,并在PyTorch和TensorFlow中使用CNN(卷积神经网络)建立图像分类模型。

这将是你的起点,然后你可以选择自己喜欢的任何框架,也可以开始构建其他计算机视觉模型。

目录

  1. PyTorch概述
  2. TensorFlow概述
  3. 了解问题陈述:MNIST
  4. 在PyTorch中实现卷积神经网络(CNN)
  5. 在TensorFlow中实施卷积神经网络(CNN)

PyTorch概述

PyTorch在深度学习社区中越来越受欢迎,并且被深度学习从业者广泛使用,PyTorch是一个提供Tensor计算的Python软件包。此外,tensors是多维数组,就像NumPy的ndarrays也可以在GPU上运行一样。

PyTorch的一个独特功能是它使用动态计算图。PyTorch的Autograd软件包从张量生成计算图并自动计算梯度。而不是具有特定功能的预定义图形。

PyTorch为我们提供了一个框架,可以随时随地构建计算图,甚至在运行时进行更改。特别是,对于我们不知道创建神经网络需要多少内存的情况,这很有用。

你可以使用PyTorch应对各种深度学习挑战。以下是一些挑战:

  1. 图像(检测,分类等)
  2. 文字(分类,生成等)
  3. 强化学习

TensorFlow概述

TensorFlow由Google Brain团队的研究人员和工程师开发。它与深度学习领域最常用的软件库相距甚远(尽管其他软件库正在迅速追赶)。

TensorFlow如此受欢迎的最大原因之一是它支持多种语言来创建深度学习模型,例如Python,C ++和R。它提供了详细的文档和指南的指导。

TensorFlow包含许多组件。以下是两个杰出的代表:

  1. TensorBoard:使用数据流图帮助有效地可视化数据
  2. TensorFlow:对于快速部署新算法/实验非常有用

TensorFlow当前正在运行2.0版本,该版本于2019年9月正式发布。我们还将在2.0版本中实现CNN。

我希望你现在对PyTorch和TensorFlow都有基本的了解。现在,让我们尝试使用这两个框架构建深度学习模型并了解其内部工作。在此之前,让我们首先了解我们将在本文中解决的问题陈述。

了解问题陈述:MNIST

在开始之前,让我们了解数据集。在本文中,我们将解决流行的MNIST问题。这是一个数字识别任务,其中我们必须将手写数字的图像分类为0到9这10个类别之一。

在MNIST数据集中,我们具有从各种扫描的文档中获取的数字图像,尺寸经过标准化并居中。随后,每个图像都是28 x 28像素的正方形(总计784像素)。数据集的标准拆分用于评估和比较模型,其中60,000张图像用于训练模型,而单独的10,000张图像集用于测试模型。

如何在PyTorch和TensorFlow中训练图像分类模型

现在,我们也了解了数据集。因此,让我们在PyTorch和TensorFlow中使用CNN构建图像分类模型。我们将从PyTorch中的实现开始。我们将在google colab中实现这些模型,该模型提供免费的GPU以运行这些深度学习模型。

在PyTorch中实现卷积神经网络(CNN)

让我们首先导入所有库:

  1. # importing the libraries 
  2. import numpy as np 
  3. import torch 
  4. import torchvision 
  5. import matplotlib.pyplot as plt 
  6. from time import time 
  7. from torchvision import datasets, transforms 
  8. from torch import nn, optim 

我们还要在Google colab上检查PyTorch的版本:

  1. # version of pytorch 
  2. print(torch.__version__) 
如何在PyTorch和TensorFlow中训练图像分类模型

因此,我正在使用1.5.1版本的PyTorch。如果使用任何其他版本,则可能会收到一些警告或错误,因此你可以更新到此版本的PyTorch。我们将对图像执行一些转换,例如对像素值进行归一化,因此,让我们也定义这些转换:

  1. # transformations to be applied on images 
  2. transform = transforms.Compose([transforms.ToTensor(), 
  3.                               transforms.Normalize((0.5,), (0.5,)), 
  4.                               ]) 

现在,让我们加载MNIST数据集的训练和测试集:

  1. # defining the training and testing set 
  2. trainset = datasets.MNIST('./data', download=True, train=True, transform=transform) 
  3. testset = datasets.MNIST('./', download=True, train=False, transform=transform) 

接下来,我定义了训练和测试加载器,这将帮助我们分批加载训练和测试集。我将批量大小定义为64:

  1. # defining trainloader and testloader 
  2. trainloader = torch.utils.data.DataLoader(trainset, batch_size=64, shuffle=True) 
  3. testloader = torch.utils.data.DataLoader(testset, batch_size=64, shuffle=True) 

首先让我们看一下训练集的摘要:

  1. # shape of training data 
  2. dataiter = iter(trainloader) 
  3. images, labels = dataiter.next() 
  4.  
  5. print(images.shape) 
  6. print(labels.shape) 
如何在PyTorch和TensorFlow中训练图像分类模型

因此,在每个批次中,我们有64个图像,每个图像的大小为28,28,并且对于每个图像,我们都有一个相应的标签。让我们可视化训练图像并查看其外观:

  1. # visualizing the training images 
  2. plt.imshow(images[0].numpy().squeeze(), cmap='gray'
如何在PyTorch和TensorFlow中训练图像分类模型

它是数字0的图像。类似地,让我们可视化测试集图像:

  1. # shape of validation data 
  2. dataiter = iter(testloader) 
  3. images, labels = dataiter.next() 
  4.  
  5. print(images.shape) 
  6. print(labels.shape) 

在测试集中,我们也有大小为64的批次。现在让我们定义架构

定义模型架构

我们将在这里使用CNN模型。因此,让我们定义并训练该模型:

  1. # defining the model architecture 
  2. class Net(nn.Module):    
  3.   def __init__(self): 
  4.       super(Net, self).__init__() 
  5.  
  6.       self.cnn_layers = nn.Sequential( 
  7.           # Defining a 2D convolution layer 
  8.           nn.Conv2d(14, kernel_size=3, stride=1, padding=1), 
  9.           nn.BatchNorm2d(4), 
  10.           nn.ReLU(inplace=True), 
  11.           nn.MaxPool2d(kernel_size=2, stride=2), 
  12.           # Defining another 2D convolution layer 
  13.           nn.Conv2d(44, kernel_size=3, stride=1, padding=1), 
  14.           nn.BatchNorm2d(4), 
  15.           nn.ReLU(inplace=True), 
  16.           nn.MaxPool2d(kernel_size=2, stride=2), 
  17.       ) 
  18.  
  19.       self.linear_layers = nn.Sequential( 
  20.           nn.Linear(4 * 7 * 710
  21.       ) 
  22.  
  23.   # Defining the forward pass     
  24.   def forward(self, x): 
  25.       x = self.cnn_layers(x) 
  26.       x = x.view(x.size(0), -1
  27.       x = self.linear_layers(x) 
  28.       return x 

我们还定义优化器和损失函数,然后我们将看一下该模型的摘要:

  1. # defining the model 
  2. model = Net() 
  3. # defining the optimizer 
  4. optimizer = optim.Adam(model.parameters(), lr=0.01
  5. # defining the loss function 
  6. criterion = nn.CrossEntropyLoss() 
  7. # checking if GPU is available 
  8. if torch.cuda.is_available(): 
  9.     model = model.cuda() 
  10.     criterion = criterion.cuda() 
  11.  
  12. print(model) 
如何在PyTorch和TensorFlow中训练图像分类模型

因此,我们有2个卷积层,这将有助于从图像中提取特征。这些卷积层的特征传递到完全连接的层,该层将图像分类为各自的类别。现在我们的模型架构已准备就绪,让我们训练此模型十个时期:

  1. for i in range(10): 
  2.     running_loss = 0 
  3.     for images, labels in trainloader: 
  4.  
  5.         if torch.cuda.is_available(): 
  6.           images = images.cuda() 
  7.           labels = labels.cuda() 
  8.  
  9.         # Training pass 
  10.         optimizer.zero_grad() 
  11.  
  12.         output = model(images) 
  13.         loss = criterion(output, labels) 
  14.  
  15.         #This is where the model learns by backpropagating 
  16.         loss.backward() 
  17.  
  18.         #And optimizes its weights here 
  19.         optimizer.step() 
  20.  
  21.         running_loss += loss.item() 
  22.     else
  23.         print("Epoch {} - Training loss: {}".format(i+1, running_loss/len(trainloader))) 
如何在PyTorch和TensorFlow中训练图像分类模型

你会看到训练随着时期的增加而减少。这意味着我们的模型是从训练集中学习模式。让我们在测试集上检查该模型的性能:

  1. # getting predictions on test set and measuring the performance 
  2. correct_count, all_count = 00 
  3. for images,labels in testloader: 
  4.   for i in range(len(labels)): 
  5.     if torch.cuda.is_available(): 
  6.         images = images.cuda() 
  7.         labels = labels.cuda() 
  8.     img = images[i].view(112828
  9.     with torch.no_grad(): 
  10.         logps = model(img) 
  11.  
  12.  
  13.     ps = torch.exp(logps) 
  14.     probab = list(ps.cpu()[0]) 
  15.     pred_label = probab.index(max(probab)) 
  16.     true_label = labels.cpu()[i] 
  17.     if(true_label == pred_label): 
  18.       correct_count += 1 
  19.     all_count += 1 
  20.  
  21. print("Number Of Images Tested =", all_count) 
  22. print("\nModel Accuracy =", (correct_count/all_count)) 
如何在PyTorch和TensorFlow中训练图像分类模型

因此,我们总共测试了10000张图片,并且该模型在预测测试图片的标签方面的准确率约为96%。

这是你可以在PyTorch中构建卷积神经网络的方法。在下一节中,我们将研究如何在TensorFlow中实现相同的体系结构。

在TensorFlow中实施卷积神经网络(CNN)

现在,让我们在TensorFlow中使用卷积神经网络解决相同的MNIST问题。与往常一样,我们将从导入库开始:

  1. # importing the libraries 
  2. import tensorflow as tf 
  3.  
  4. from tensorflow.keras import datasets, layers, models 
  5. from tensorflow.keras.utils import to_categorical 
  6. import matplotlib.pyplot as plt 

检查一下我们正在使用的TensorFlow的版本:

  1. # version of tensorflow 
  2. print(tf.__version__) 
如何在PyTorch和TensorFlow中训练图像分类模型

因此,我们正在使用TensorFlow的2.2.0版本。现在让我们使用tensorflow.keras的数据集类加载MNIST数据集:

  1. (train_images, train_labels), (test_images, test_labels) = datasets.mnist.load_data(path='mnist.npz'
  2. # Normalize pixel values to be between 0 and 1 
  3. train_images, test_images = train_images / 255.0, test_images / 255.0 

在这里,我们已经加载了训练以及MNIST数据集的测试集。此外,我们已经将训练和测试图像的像素值标准化了。接下来,让我们可视化来自数据集的一些图像:

  1. # visualizing a few images 
  2. plt.figure(figsize=(10,10)) 
  3. for i in range(9): 
  4.     plt.subplot(3,3,i+1
  5.     plt.xticks([]) 
  6.     plt.yticks([]) 
  7.     plt.grid(False) 
  8.     plt.imshow(train_images[i], cmap='gray'
  9. plt.show() 
如何在PyTorch和TensorFlow中训练图像分类模型

这就是我们的数据集的样子。我们有手写数字的图像。再来看一下训练和测试集的形状:

  1. # shape of the training and test set 
  2. (train_images.shape, train_labels.shape), (test_images.shape, test_labels.shape) 
如何在PyTorch和TensorFlow中训练图像分类模型

因此,我们在训练集中有60,000张28乘28的图像,在测试集中有10,000张相同形状的图像。接下来,我们将调整图像的大小,并一键编码目标变量:

  1. # reshaping the images 
  2. train_images = train_images.reshape((6000028281)) 
  3. test_images = test_images.reshape((1000028281)) 
  4.  
  5. # one hot encoding the target variable 
  6. train_labels = to_categorical(train_labels) 
  7. test_labels = to_categorical(test_labels) 

定义模型体系结构

现在,我们将定义模型的体系结构。我们将使用Pytorch中定义的相同架构。因此,我们的模型将是具有2个卷积层,以及最大池化层的组合,然后我们将有一个Flatten层,最后是一个有10个神经元的全连接层,因为我们有10个类。

  1. # defining the model architecture 
  2. model = models.Sequential() 
  3. model.add(layers.Conv2D(4, (33), activation='relu', input_shape=(28281))) 
  4. model.add(layers.MaxPooling2D((22), strides=2)) 
  5. model.add(layers.Conv2D(4, (33), activation='relu')) 
  6. model.add(layers.MaxPooling2D((22), strides=2)) 
  7. model.add(layers.Flatten()) 
  8. model.add(layers.Dense(10, activation='softmax')) 

让我们快速看一下该模型的摘要:

  1. # summary of the model 
  2. model.summary() 
如何在PyTorch和TensorFlow中训练图像分类模型

总而言之,我们有2个卷积层,2个最大池层,一个Flatten层和一个全连接层。模型中的参数总数为1198个。现在我们的模型已经准备好了,我们将编译它:

  1. # compiling the model 
  2. model.compile(optimizer='adam'
  3.               loss='categorical_crossentropy'
  4.               metrics=['accuracy']) 

我们正在使用Adam优化器,你也可以对其进行更改。损失函数被设置为分类交叉熵,因为我们正在解决一个多类分类问题,并且度量标准是‘accuracy’。现在让我们训练模型10个时期

  1. # training the model 
  2. history = model.fit(train_images, train_labels, epochs=10, validation_data=(test_images, test_labels)) 
如何在PyTorch和TensorFlow中训练图像分类模型

总而言之,最初,训练损失约为0.46,经过10个时期后,训练损失降至0.08。10个时期后的训练和验证准确性分别为97.31%和97.48%。

因此,这就是我们可以在TensorFlow中训练CNN的方式。

尾注

总而言之,在本文中,我们首先研究了PyTorch和TensorFlow的简要概述。然后我们了解了MNIST手写数字分类的挑战,最后,在PyTorch和TensorFlow中使用CNN(卷积神经网络)建立了图像分类模型。现在,我希望你熟悉这两个框架。下一步,应对另一个图像分类挑战,并尝试同时使用PyTorch和TensorFlow来解决。

 

责任编辑:张燕妮 来源: 今日头条
相关推荐

2023-01-11 07:28:49

TensorFlow分类模型

2017-11-01 15:13:49

TensorFlow神经网络深度学习

2018-06-26 15:40:49

Tensorflow.MNIST图像数据

2022-06-29 09:00:00

前端图像分类模型SQL

2020-10-15 11:22:34

PyTorchTensorFlow机器学习

2018-04-09 10:20:32

深度学习

2024-07-25 08:25:35

2023-01-06 19:02:23

应用技术

2023-06-27 09:00:00

2017-06-09 10:00:15

大数据网络拓扑可拓展模型

2017-10-11 06:04:04

2024-05-28 08:11:44

SpringTensorFlow训练

2021-03-25 15:19:33

深度学习Pytorch技巧

2017-03-02 14:52:46

2017-08-28 21:31:37

TensorFlow深度学习神经网络

2023-02-20 14:44:22

DDD领域模型

2022-10-30 15:00:40

小样本学习数据集机器学习

2017-03-27 16:18:30

神经网络TensorFlow人工智能

2017-08-29 13:50:03

TensorFlow深度学习神经网络

2023-06-16 12:15:09

UbuntuLinuxAVIF 图像
点赞
收藏

51CTO技术栈公众号