十行代码就能搞定深度学习?飞桨框架高层API,一起轻松玩转AI

人工智能 深度学习
向往深度学习技术,可是深度学习框架太难学怎么办?百度倾心打造飞桨框架高层 API,零基础也能轻松上手深度学习,一起来看看吧?

 高层 API,What

深度学习作为人工智能时代的核心技术,近年来无论学术、还是工业领域,均发挥着愈加重要的作用。然而,深度学习理论太难学,开发过程太复杂,又将许多人拒之于深度学习的门外。

为了简化深度学习的学习过程、降低深度学习的开发难度,百度飞桨框架历经近一年的打磨,不断地优化深度学习 API,并针对开发者的使用场景进行封装,在飞桨框架的最新版本中,推出了高低融合、科学统一的飞桨全新 API 体系。

飞桨框架将 API 分为两种,基础 API 和高层 API。用制作披萨举例,一般有两种方法:一种是我们准备好面粉、牛奶、火腿等食材,精心加工后,就能制作出美味的披萨;而第二种则是我们买商家预烤制的披萨饼,以及调好的馅料,直接加热就可以吃到披萨了。

那么这两种方法有什么区别呢?采用方法一,自己准备食材,可以随心所欲的搭配料理,制作酱料,从而满足我们的不同口味,但是,这更适合「老司机」,如果是新人朋友,很有可能翻车;而方法二,用商家预烤制的披萨饼与馅料,直接加热就可以非常快速的完成披萨的制作,而且味道会有保障;但是,相比于方法一,我们会少一些口味的选择。

用框架来类比,基础 API 对应方法一,高层 API 对应方法二。使用基础 API,我们可以随心所欲的搭建自己的深度学习模型,不会受到任何限制;而使用方法二,我们可以很快的实现模型,但是可能会少一些自主性。

但是,与制作披萨不同的是,飞桨框架可以做到真正的「鱼与熊掌」可以兼得。因为高层 API 本身不是一个独立的体系,它完全可以和基础 API 互相配合使用,做到高低融合,使用起来会更加便捷。使我们在开发过程中,既可以享受到基础 API 的强大,又可以兼顾高层 API 的快捷。

高层 API,All

飞桨框架高层 API 的全景图如下:

从图中可以看出,飞桨框架高层 API 由五个模块组成,分别是数据加载、模型组建、模型训练、模型可视化和高阶用法。针对不同的使用场景,飞桨框架提供了不同高层 API,从而降低开发难度,让每个人都能轻松上手深度学习。

我们先通过一个深度学习中经典的手写数字分类任务,来简单了解飞桨高层 API。然后再详细的介绍每个模块中所包含的 API。

 

  1. import paddle 
  2. from paddle.vision.transforms import Compose, Normalize 
  3. from paddle.vision.datasets import MNIST 
  4. import paddle.nn as nn  
  5.  
  6. # 数据预处理,这里用到了归一化 
  7. transform = Compose([Normalize(mean=[127.5], 
  8.                                std=[127.5], 
  9.                                data_format='CHW')]) 
  10.  
  11. # 数据加载,在训练集上应用数据预处理的操作 
  12. train_dataset = paddle.vision.datasets.MNIST(mode='train', transform=transform) 
  13. test_dataset = paddle.vision.datasets.MNIST(mode='test', transform=transform) 
  14.  
  15. # 模型组网 
  16. mnist = nn.Sequential( 
  17.         nn.Flatten(), 
  18.         nn.Linear(784512), 
  19.         nn.ReLU(),     
  20.         nn.Dropout(0.2),     
  21.         nn.Linear(51210)) 
  22.  
  23. # 模型封装,用 Model 类封装 
  24. model = paddle.Model(mnist) 
  25.  
  26. # 模型配置:为模型训练做准备,设置优化器,损失函数和精度计算方式 
  27. model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters()), 
  28.               loss=nn.CrossEntropyLoss(),               
  29.               metrics=paddle.metric.Accuracy()) 
  30.  
  31. # 模型训练, 
  32. model.fit(train_dataset, 
  33.           epochs=10,           
  34.           batch_size=64,           
  35.           verbose=1
  36.  
  37. # 模型评估, 
  38. model.evaluate(test_dataset, verbose=1
  39.  
  40. # 模型保存, 
  41. model.save('model_path'

从示例可以看出,在数据预处理、数据加载、模型组网、模型训练、模型评估、模型保存等场景,高层 API 均可以通过 1~3 行代码实现。相比传统方法动辄几十行的代码量,高层 API 只需要十来行代码,就能轻松完成一个 MNIST 分类器的实现。以极少的代码就能达到与基础 API 同样的效果,大幅降低了深度学习的学习门槛。

如果是初次学习深度学习框架,使用飞桨高层 API,可以「凡尔赛」说出「好烦哦,飞桨高层 API 怎么这么快就完成开发了,我还想多写几行代码呢!」

高层 API,How

接下来以 CV 任务为例,简单介绍飞桨高层 API 在不同场景下的使用方法。

本示例的完整代码可以在 AI Studio 上获取,无需准备任何软硬件环境即可直接在线运行代码,相当方便哦:https://aistudio.baidu.com/aistudio/projectdetail/1243085

一、数据预处理与数据加载

对于数据加载,在一些典型的任务中,我们完全可以使用飞桨框架内置的数据集,完成数据的加载。飞桨框架将常用的数据集作为领域 API,集成在 paddle.vision.datasets 目录中,包含了 CV 领域中常见的 MNIST、Cifar、Flowers 等数据集。

而在数据预处理场景中,飞桨框架提供了 20 多种常见的图像预处理 API,方便我们快速实现数据增强,如实现图像的色调、对比度、饱和度、大小等各种数字图像处理的方法。图像预处理 API 集成在 paddle.vision.transforms 目录中,使用起来非常方便。只需要先创建一个数据预处理的 transform,在其中存入需要进行的数据预处理方法,然后在数据加载的过程中,将 transform 作为参数传入即可。

此外,如果我们需要加载自己的数据集,使用飞桨框架标准数据定义与数据加载 API paddle.io.Dataset 与 paddle.io.DataLoader,就可以「一键」完成数据集的定义与数据的加载。这里通过一个案例来展示如何利用 Dataset 定义数据集,示例如下:

  1. from paddle.io import Dataset 
  2.  
  3. class MyDataset(Dataset): 
  4.     ""
  5.     步骤一:继承 paddle.io.Dataset 类 
  6.     """     
  7.     def __init__(self):         
  8.     ""
  9.     步骤二:实现构造函数,定义数据读取方式,划分训练和测试数据集 
  10.     ""
  11.     super(MyDataset, self).__init__() 
  12.  
  13.         self.data = [ 
  14.              ['traindata1''label1'],             
  15.              ['traindata2''label2'],             
  16.              ['traindata3''label3'],             
  17.              ['traindata4''label4'],        
  18.          ] 
  19.  
  20.     def __getitem__(self, index): 
  21.     ""
  22.     步骤三:实现__getitem__方法,定义指定 index 时如何获取数据,并返回单条数据(训练数据,对应的标签) 
  23.     """         
  24.     data = self.data[index][0]         
  25.     label = self.data[index][1
  26.  
  27.      return data, label 
  28.  
  29.     def __len__(self):         
  30.     ""
  31.     步骤四:实现__len__方法,返回数据集总数目 
  32.     """         
  33.     return len(self.data) 
  34.  
  35. # 测试定义的数据集 
  36. train_dataset = MyDataset() 
  37.  
  38. print('=============train dataset============='
  39. for data, label in train_dataset: 
  40.     print(data, label) 


只需要按照上述规范的四个步骤,我们就实现了一个自己的数据集。然后,将 train_dataset 作为参数,传入到 DataLoader 中,即可获得一个数据加载器,完成训练数据的加载。

【Tips:对于数据集的定义,飞桨框架同时支持 map-style 和 iterable-style 两种类型的数据集定义,只需要分别继承 paddle.io.Dataset 和 paddle.io.IterableDataset 即可。】

 二、网络构建

在网络构建模块,飞桨高层 API 与基础 API 保持一致,统一使用 paddle.nn 下的 API 进行组网。paddle.nn 目录下包含了所有与模型组网相关的 API,如卷积相关的 Conv1D、Conv2D、Conv3D,循环神经网络相关的 RNN、LSTM、GRU 等。

对于组网方式,飞桨框架支持 Sequential 或 SubClass 进行模型组建。Sequential 可以帮助我们快速的组建线性的网络结构,而 SubClass 支持更丰富灵活的网络结构。我们可以根据实际的使用场景,来选择最合适的组网方式。如针对顺序的线性网络结构可以直接使用 Sequential ,而如果是一些比较复杂的网络结构,我们使用 SubClass 的方式来进行模型的组建,在 __init__ 构造函数中进行 Layer 的声明,在 forward 中使用声明的 Layer 变量进行前向计算。

下面就来分别看一下 Sequential 与 SubClass 的实例。

1、Sequential

对于线性的网络模型,我们只需要按网络模型的结构顺序,一层一层的加到 Sequential 后面即可,具体实现如下:

  1. # Sequential 形式组网 
  2. mnist = nn.Sequential( 
  3.     nn.Flatten(),     
  4.     nn.Linear(784512),     
  5.     nn.ReLU(),     
  6.     nn.Dropout(0.2),     
  7.     nn.Linear(51210

2、SubClass

使用 SubClass 进行组网的实现如下:

 

  1. # SubClass 方式组网 
  2. class Mnist(nn.Layer): 
  3.     def __init__(self):     
  4.         super(Mnist, self).__init__() 
  5.  
  6.         self.flatten = nn.Flatten() 
  7.         self.linear_1 = nn.Linear(784512)         
  8.         self.linear_2 = nn.Linear(51210)         
  9.         self.relu = nn.ReLU()         
  10.         self.dropout = nn.Dropout(0.2
  11.  
  12.     def forward(self, inputs): 
  13.         y = self.flatten(inputs)         
  14.         y = self.linear_1(y)         
  15.         y = self.relu(y)         
  16.         y = self.dropout(y)         
  17.         y = self.linear_2(y) 
  18.  
  19.         return y 

上述的 SubClass 组网的结果与 Sequential 组网的结果完全一致,可以明显看出,使用 SubClass 组网会比使用 Sequential 更复杂一些。不过,这带来的是网络模型结构的灵活性。我们可以设计不同的网络模型结构来应对不同的场景。

3、飞桨框架内置模型

除了自定义模型结构外,飞桨框架还「贴心」的内置了许多模型,真正的一行代码实现深度学习模型。目前,飞桨框架内置的模型都是 CV 领域领域的模型,都在 paddle.vision.models 目录下,包含了常见的 vgg 系列、resnet 系列等模型。使用方式如下:

  1. mport paddle 
  2. from paddle.vision.models import resnet18 
  3.  
  4. # 方式一: 一行代码直接使用  
  5. resnetresnet = resnet18() 
  6.  
  7. # 方式二: 作为主干网络进行二次开发 
  8. class FaceNet(paddle.nn.Layer): 
  9.     def __init__(self, num_keypoints=15, pretrained=False): 
  10.         super(FaceNet, self).__init__() 
  11.  
  12.         self.backbone = resnet18(pretrained)         
  13.         self.outLayer1 = paddle.nn.Linear(1000512)         
  14.         self.outLayer2 = paddle.nn.Linear(512, num_keypoints*2
  15.  
  16.     def forward(self, inputs):         
  17.          out = self.backbone(inputs)         
  18.          out = self.outLayer1(out)         
  19.          out = self.outLayer2(out)         
  20.          return out 

三、模型可视化

在我们完成模型的构建后,有时还需要可视化模型的网络结构与参数,只要我们用 Model 进行模型的封装后,然后调用 model.summary 即可实现网络模型的可视化,具体如下:

  1. mnist = nn.Sequential( 
  2.     nn.Flatten(),     
  3.     nn.Linear(784512),     
  4.     nn.ReLU(),     
  5.     nn.Dropout(0.2),     
  6.     nn.Linear(51210)) 
  7.  
  8. # 模型封装,用 Model 类封装 
  9. model = paddle.Model(mnist) 
  10. model.summary() 

其输出如下:

  1. --------------------------------------------------------------------------- 
  2.  Layer (type)       Input Shape          Output Shape         Param #     
  3.  =========================================================================== 
  4.    Flatten-795    [[3212828]]        [32784]              0          
  5.     Linear-5         [[32784]]           [32512]           401,920        
  6.      ReLU-3          [[32512]]           [32512]              0         
  7.     Dropout-3        [[32512]]           [32512]              0           
  8.     Linear-6         [[32512]]            [3210]            5,130      
  9.     =========================================================================== 
  10.     Total params: 407,050 
  11.     Trainable params: 407,050 
  12.     Non-trainable params: 0 
  13. --------------------------------------------------------------------------- 
  14. Input size (MB): 0.10 
  15. Forward/backward pass size (MB): 0.57 
  16. Params size (MB): 1.55 
  17. Estimated Total Size (MB): 2.22 
  18. --------------------------------------------------------------------------- 
  19. {'total_params'407050'trainable_params'407050

Model.summary 不仅会给出每一层网络的形状,还会给出每层网络的参数量与模型的总参数量,非常方便直观的就可以看到模型的全部信息。

四、模型训练

1、使用高层 API 在全部数据集上进行训练

过去常常困扰深度学习开发者的一个问题是,模型训练的代码过于复杂,常常要写好多步骤,才能使程序运行起来,冗长的代码使许多开发者望而却步。

现在,飞桨高层 API 将训练、评估与预测 API 都进行了封装,直接使用 Model.prepare()、Model.fit()、Model.evaluate()、Model.predict()就可以完成模型的训练、评估与预测。

对比传统框架动辄一大块的训练代码。使用飞桨高层 API,可以在 3-5 行内,完成模型的训练,极大的简化了开发的代码量,对初学者开发者非常友好。具体代码如下:

  1. # 将网络结构用 Model 类封装成为模型 
  2. model = paddle.Model(mnist) 
  3.  
  4. # 为模型训练做准备,设置优化器,损失函数和精度计算方式 
  5. model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters()), 
  6.               loss=paddle.nn.CrossEntropyLoss(),               
  7.               metrics=paddle.metric.Accuracy()) 
  8.  
  9. # 启动模型训练,指定训练数据集,设置训练轮次,设置每次数据集计算的批次大小,设置日志格式 
  10. model.fit(train_dataset,  
  11.          epochs=10,           
  12.          batch_size=64,           
  13.          verbose=1
  14.  
  15. # 启动模型评估,指定数据集,设置日志格式 
  16. model.evaluate(test_dataset, verbose=1
  17.  
  18. # 启动模型测试,指定测试集  
  19. Model.predict(test_dataset) 

2、使用高层 API 在一个批次的数据集上训练、验证与测试

有时我们需要对数据按 batch 进行取样,然后完成模型的训练与验证,这时,可以使用 train_batch、eval_batch、predict_batch 完成一个批次上的训练、验证与测试,具体如下:

  1. # 模型封装,用 Model 类封装 
  2. model = paddle.Model(mnist) 
  3.  
  4. # 模型配置:为模型训练做准备,设置优化器,损失函数和精度计算方式 
  5. model.prepare(optimizer=paddle.optimizer.Adam(parameters=model.parameters()), 
  6.               loss=nn.CrossEntropyLoss(),               
  7.               metrics=paddle.metric.Accuracy()) 
  8.  
  9. # 构建训练集数据加载器 
  10. train_loader = paddle.io.DataLoader(train_dataset, batch_size=64, shuffle=True) 
  11.  
  12. # 使用 train_batch 完成训练 
  13. for batch_id, data in enumerate(train_loader()): 
  14.     model.train_batch([data[0]],[data[1]]) 
  15.  
  16. # 构建测试集数据加载器 
  17. test_loader = paddle.io.DataLoader(test_dataset, places=paddle.CPUPlace(), batch_size=64, shuffle=True) 
  18.  
  19. # 使用 eval_batch 完成验证 
  20. for batch_id, data in enumerate(test_loader()): 
  21.     model.eval_batch([data[0]],[data[1]]) 
  22.  
  23. # 使用 predict_batch 完成预测 
  24. for batch_id, data in enumerate(test_loader()): 
  25.     model.predict_batch([data[0]]) 

五、高阶用法

除此之外,飞桨高层 API 还支持一些高阶的玩法,如自定义 Loss、自定义 Metric、自定义 Callback 等等。

自定义 Loss 是指有时我们会遇到特定任务的 Loss 计算方式在框架既有的 Loss 接口中不存在,或算法不符合自己的需求,那么期望能够自己来进行 Loss 的自定义。

自定义 Metric 和自定义 Loss 的场景一样,如果遇到一些想要做个性化实现的操作时,我们也可以来通过框架完成自定义的评估计算方法。

自定义 Callback 则是可以帮助我们收集训练时的一些参数以及数据,由于 Model.fit()封装了训练过程,如果我们需要保存训练时的 loss、metric 等信息,则需要通过 callback 参数收集这部分信息。

更多更丰富的玩法,可以扫描关注文末的二维码获取~

高层 API,Next

上文以 CV 任务为例,介绍了飞桨框架高层 API 的使用指南。后续,飞桨框架还计划推出 NLP 领域专用的数据预处理模块,如对数据进行 padding、获取数据集词表等;在组网方面,也会实现 NLP 领域中组网专用的 API,如组网相关的 sequence_mask,评估指标相关的 BLEU 等;最后,针对 NLP 领域中的神器 transformer,我们也会对其进行特定的优化;待这些功能上线后,我们会第一时间告诉大家,敬请期待吧~

高层 API,Where

看完前面飞桨高层 API 的使用介绍,是不是有种跃跃欲试的冲动呀?

体验方式一:在线体验

无需准备任何软硬件环境,直接访问以下地址,即可在线跑代码看效果:https://aistudio.baidu.com/aistudio/projectdetail/1243085

体验方式二:本地体验

如果你还想在自己本地电脑上体验,那需要确保本地电脑上已成功安装飞桨开源框架 2.0。

下面介绍飞桨开源框架 2.0 的安装方法,可以参考下面的命令,直接使用 pip 安装。安装后,就可以开始使用高层 API 啦。

# CPU 版

  1. # CPU 版 
  2. $ pip3 install paddlepaddle==2.0.0rc0 -i https://mirror.baidu.com/pypi/simple 
  3. # GPU 版 
  4. $ pip3 install paddlepaddle_gpu==2.0.0rc0 -i https://mirror.baidu.com/pypi/simple 

 

 

责任编辑:梁菲 来源: 机器之心
相关推荐

2019-08-27 10:00:02

深度学习

2019-08-26 14:31:02

2024-06-12 15:59:59

前端JavaScrip识别

2014-10-21 15:07:04

2020-11-08 14:44:37

VSCode代码编码

2022-03-14 09:57:30

Python代码

2022-01-17 06:59:40

Grep指令linux

2021-12-29 08:27:05

ByteBuffer磁盘服务器

2022-07-07 15:50:19

Python开发功能

2022-09-26 14:25:55

Flowable流程ID

2022-05-24 08:21:16

数据安全API

2018-03-26 19:56:13

深度学习

2022-02-22 10:50:19

IDEAGit工具,

2024-08-16 14:28:21

2021-09-10 09:37:05

AI 数据人工智能

2010-10-08 17:12:01

VS2010服务器

2022-01-25 12:51:58

Python代码证件照

2022-03-23 15:32:38

Python开发代码

2011-07-14 10:51:40

飞视美视频会议

2020-05-22 10:32:32

机器学习
点赞
收藏

51CTO技术栈公众号