谈谈基于深度学习的目标检测网络为什么会误检,以及如何优化目标检测的误检问题

新闻 深度学习
在训练人脸检测网络时,一般都会做数据增强,为图像模拟不同姿态、不同光照等复杂情况,这就有可能产生过亮的人脸图像,“过亮”的人脸看起来就像发光的灯泡一样。

 对于以人脸检测为代表的目标检测深度学习网络来说,误检是一件非常恼人的事情。把狗检测为猫尚可接受,毕竟有些狗的确长得像猫,但是把墙壁、灯泡、拳头、衣服检测成人脸就不能忍了,明明一点都不像。稍稍思考下,我感觉应该能够从两个方面解释下误检问题。

图像内容问题

在训练人脸检测网络时,一般都会做数据增强,为图像模拟不同姿态、不同光照等复杂情况,这就有可能产生过亮的人脸图像,“过亮”的人脸看起来就像发光的灯泡一样。。。如果 发光灯泡 经过网络提取得到的特征,和 过亮人脸 经过网络提取得到的特征相似度达到临界值,那么网络把发光灯泡检测为人脸就不足为奇了。

同样的道理,用于训练网络的人脸数据集中,若是存在一些带口罩,带围巾的人脸图像,那么网络就极有可能“记住”口罩、围巾的特征,在预测阶段,要是有物体(比如衣服)表现得像口罩、围巾,那么网络就有可能把该物体检测成人脸。

当然,以上讨论都是启发性的,本文暂时不把它当做讨论重点。

目标 bbox 的范围问题

目前非常流行的深度学习目标检测网络(SSD、YOLO、RetinaFace 等)在训练阶段,我们需要提供目标在图像中的 bbox,所谓 bbox,其实主要就是指目标的外接矩形。这样训练而来的网络在预测阶段,一般给出的也是目标的外接矩形。

问题就出在 bbox 上,接下来的讨论还是以人脸检测为例,请看下图:

这是一个典型的目标 bbox。bbox 本质上是矩形,但通常目标(人脸)不是矩形,bbox 内部包含一些非人脸内容, 我认为这些非人脸内容要对误检负一部分责任 。

常用的人脸检测网络一般使用大量的卷积层提取图像特征,得到的特征图尺寸通常小于原始输入图像数倍(取决于卷积的 stride、padding 等参数),网络对特征图的每一个“像素点”做二分类(人脸类、背景类),“误检”就是在这个二分类过程中产生的。

数倍小的特征图的一个“像素点”都对应着原图的一小块矩形区域内的像素,这么看来,特征图的每一个“像素点”都可视为一个 bbox,只不过这些 bbox 有的属于背景类,有的属于人脸类。

为了简单,将人脸检测网络的二分类分支抽离出来,设为 p_{\theta } ,再令 x 表示特征图中的“像素点”, q 表示该像素点的标签,则训练 p_{\theta } 的一个常用方法就是优化下述目标:

  1. \underset{\theta}{argmax}{\mathbb{E}_{x \sim p_{\theta}(x)}}\frac{p_{\theta}(y|x)}{q(y|x)} 

其中 y 为 0(背景类)/1(人脸类)标签。 对于人脸类 ,理想情况下,我们希望 x 为人脸数据,但是实际上 x 却是一小块 矩形 区域内部的所有图像数据,这个 矩形 内部常常包含一些非人脸数据,因此实际被优化的目标为:

  1. \underset{\theta}{argmax}{\mathbb{E}_{x \sim p_{\theta}(x+\Delta x)}}\frac{p_{\theta}(y|x+\Delta x)}{q(y|x+\Delta x)} 

上式中 x 表示人脸数据, \Delta x 表示非人脸数据。通常 q(y|x+\Delta x) 是人工标注的标签,因此 \Delta x 不会影响 q 的结果,优化下述目标就可以了:

  1. \underset{\theta}{argmax}{\mathbb{E}_{x \sim p_{\theta}(x+\Delta x)}}\frac{p_{\theta}(y|x+\Delta x)}{q(y|x)} 

我们以为训练得到的是 p_{\theta}(y|x) ,实际得到的却是 p_{\theta}(y|x+\Delta x) ,可以认为 \Delta x 的存在是引起误检的主要原因之一。

优化误检问题

既然 \Delta x 的存在会引起误检,那么优化该问题直观上有以下方法:

  • 令 \Delta x \rightarrow 0
  • 令 p_{\theta}(y|x+\Delta x) \rightarrow p_{\theta}(y|x)

遗憾的是,这两个方法在实践中都很难 直接 实现。虽然我们可以不考虑人工成本,将粗糙的人脸 bbox 用更加精细的多边形代替,但是缩放数倍的卷积特征图本身也隐含着“矩形框”,另外, 人眼认为的“人脸”未必是网络认为的“人脸” 。

本文不考虑像素级别的语义分割任务。

稍稍再想一想,不难发现,虽然上述理论是将 x 和 \Delta x 作为彼此独立的像素集合处理得到的,但是我们可以对该理论做稍许推广,也即:将 x 视为 bbox 内的所有像素, \Delta x 视为 bbox 内所有干扰人脸误检的像素差值,那么该理论就更加有用了。

我们完成了优化人脸检测网络误检问题的理论构建,该理论将指导接下来的网络,以及对应的损失函数设计。

构建深度学习网络

构建 s_w 的方法有多种,下面是我做实验时简单构建的网络关键部分的结构示意图(这样构造有些粗糙,但是多少能够验证下理论):

常规方法在得到特征图 x_f + \Delta x_f 时,就直接将其送到背景/人脸二分类网络分支做分类了。在上图的网络架构中,我们增加了额外的一个分支,该分支从特征图 x_f + \Delta x_f 得到一个同尺寸的 1 通道人脸特征概率图,该特征概率图与 x_f + \Delta x_f 相乘即可得到 x_f + \Delta x'_f ,这样就可以得到两个分类结果:

  • p_{\theta}(x_f + \Delta x_f)
  • p_{\theta}(x_f + \Delta x'_f)

再根据前面理论分析得到的 s_w 优化方法,同步优化 \theta 和 w ,即可完成训练。

若干可视化训练效果

这里我没有太过仔细的测试,只在手边的 RetinaFace 网络上增加了前面上述结构,训练 10 个 epoch 后,中间生成一些可视效果图:

左:原图及bbox标签;中:人脸特征概率图;右:经过 s_w 处理过的图。

可以看出,虽然 标签是矩形的 bbox,但是通过简单增加一条训练分支,我们得到了类似于语义分割的效果。

此外,从效果图2中可以看出,网络认为的人脸区域与人眼感受的区域并不完全一致,但是总体是保留关键特征的。类似的还有下图。

误检的优化效果

还是偷懒,暂时没有太过详细的测试,只在一个非常小(1000张规模)的数据集上做了测试,误检降低了 5.2%,对比对象为:

  • p_{\theta}(x_f + \Delta x_f)
  • p_{\theta}(x_f + \Delta x'_f)

当然,这只是我粗略训练和测试的结果。后续有时间再尝试仔细构造下网络设计以及训练,补上公开数据集的测试结果对比吧。

责任编辑:张燕妮 来源: 刘冲的博客
相关推荐

2017-10-02 16:13:47

深度学习目标检测计算机视觉

2021-10-08 09:46:42

深度学习神经网络人工智能

2017-09-20 16:25:00

深度学习视觉领域计算机

2023-12-19 16:01:40

深度学习人工智能目标检测

2017-04-25 15:12:45

神经网络SSD检测

2024-07-04 09:22:24

2017-09-22 11:45:10

深度学习OpenCVPython

2024-07-22 13:49:38

YOLOv8目标检测开发

2024-08-01 09:00:00

目标检测端到端

2022-10-26 15:41:38

深度学习Deepfake机器学习

2020-09-21 05:58:40

深度学习算法目标检测

2023-11-09 23:45:01

Pytorch目标检测

2024-04-26 10:00:03

自动驾驶模型

2019-03-11 09:44:09

欺骗勒索软件攻击

2022-10-14 16:18:40

MobileNetAndroid端模型训练

2024-08-06 11:01:03

2020-02-28 15:33:12

代码人工智能检测

2020-02-17 16:52:06

误植攻击网络攻击网络安全

2019-08-01 12:47:26

目标检测计算机视觉CV

2024-11-08 15:37:47

点赞
收藏

51CTO技术栈公众号