“非深度网络”12层打败50层,普林斯顿+英特尔:更深不一定更好

新闻 深度学习
“深度”是深度神经网络(DNN)的关键词。但网络越深也就意味着,训练时反向传播的链条更长,推理时顺序计算步骤更多、延迟更高。

[[432431]]

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

 “深度”是深度神经网络(DNN)的关键词。但网络越深也就意味着,训练时反向传播的链条更长,推理时顺序计算步骤更多、延迟更高。

而深度如果不够,神经网络的性能往往又不好。

这就引出了一个问题:是否有可能构建高性能的“非深度”神经网络?

普林斯顿大学英特尔最新的论文证明,确实能做到。

他们只用了12层网络ParNet就在ImageNet上达到了接近SOTA的性能。

“非深度网络”12层打败50层,普林斯顿+英特尔:更深不一定更好

ParNet在ImageNet上准确率超过80%、在CIFAR10上超过 96%、在CIFAR100上top-1准确率 达到了81%,另外在MS-COCO上实现了48%的AP。

他们是如何在网络这么“浅”的情况下做到的?

并行子网提升性能

ParNet 中的一个关键设计选择是使用并行子网,不是按顺序排列层,而是在并行子网中排列层。

ParNet由处理不同分辨率特征的并行子结构组成。我们将这些并行子结构称为流(stream)。来自不同流的特征在网络的后期融合,这些融合的特征用于下游任务。

“非深度网络”12层打败50层,普林斯顿+英特尔:更深不一定更好

在 ParNet 中,作者使用VGG样式的块。但是对于非深度网络来说,只有3×3卷积感受野比较有限。

为了解决这个问题,作者构建了一个基于Squeeze-and-Excitation设计的 Skip-Squeeze-Excitation (SSE) 层。使用SSE模块修改后的Rep-VGG称之为Rep VGG-SSE。

对于ImageNet等大规模数据集,非深度网络可能没有足够的非线性,从而限制了其表示能力。因此,作者用SiLU激活函数替代了ReLU。

“非深度网络”12层打败50层,普林斯顿+英特尔:更深不一定更好

除了RepVGG-SSE块的输入和输出具有相同的大小外,ParNet还包含下采样和融合块。

模块降低分辨率并增加宽度以实现多尺度处理,而融合块组合来自多个分辨率的信息,有助于减少推理期间的延迟。

为了在小深度下实现高性能,作者通过增加宽度、分辨率和流数量来扩展ParNet。

作者表示,由于摩尔定律放缓,处理器频率提升空间也有限,因此并行计算有利于神经网络实现更快的推理。而并行结构的非深度网络ParNet在这方面具有优势。

实际性能如何

在ImageNet数据集上,无论是Top-1还是Top-5上,ParNet都接近SOTA性能。

“非深度网络”12层打败50层,普林斯顿+英特尔:更深不一定更好

在MS-COCO任务中,ParNet在性能最佳的同时,延迟最低。

“非深度网络”12层打败50层,普林斯顿+英特尔:更深不一定更好

不过也有人质疑“非深度网络”的实际表现,因为虽然层数少,但网络宽度变大,实际上ParNet比更深的ResNet50的参数还要多,似乎不太有说服力。

“非深度网络”12层打败50层,普林斯顿+英特尔:更深不一定更好

但作者也表示“非深度”网络在多GPU下能发挥更大的并行计算优势。

最后,ParNet的GitHub页已经建立,代码将在不久后开源。

 

 

责任编辑:张燕妮 来源: 量子位
相关推荐

2011-09-20 17:44:26

笔记本评测

2021-11-09 09:52:57

神经网络AI算法

2020-08-30 14:31:40

Python编程语言开发

2021-02-26 09:04:22

数组ArrayListHashMap

2012-08-02 16:18:10

普林斯顿结构哈佛结构架构

2013-08-14 18:25:28

2022-12-26 09:16:45

Guava架构模型

2016-11-28 11:19:48

术语神秘

2021-01-29 09:17:00

深度学习AI人工智能

2018-03-09 10:34:48

显卡参数超频

2018-01-18 05:20:59

2017-01-19 17:57:47

大数据

2018-02-08 09:11:25

Linux命令rm

2021-10-23 06:44:02

性能分析Profiler复杂度分析

2014-04-03 14:23:02

英特尔统一固件管理套件

2011-01-11 09:46:05

Windows 8ARM英特尔

2011-01-12 18:38:25

2022-09-06 15:35:01

开源软件OSS

2009-04-08 08:57:09

鸿海郭台铭职场出牌学
点赞
收藏

51CTO技术栈公众号