本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。
换脸这件事,从未如此高清。
最流行的开源deepfake模型DeepFakeLab,在今年的更新中,最大分辨率也只达到了320×320。
而这只来自迪士尼和ETHZ的全新deepfake,在保持高度流畅这一优良传统的同时,还一举把分辨率拉高到了1024×1024的水平。
这也是deepfake的分辨率水平首次达到百万像素。
这下,换脸之后,每一根眉毛都仍然清晰可见。
动图画质略有损失,用静态图来感受一下这个清晰度:
难怪网友忍不住惊呼:鹅妹子嘤。
为特效而生的高分辨率deepfake
在此之前,deepfake技术的改进重点主要在平滑换脸效果,而不是提高分辨率。
但320×320这样的分辨率下,手机上看换脸效果可能行云流水看不出破绽,换到大屏幕上,缺陷就会很明显。
为了提高分辨率,迪士尼的这项研究主要引入了逐步训练的多向梳状网络,并提出了一个完整的人脸交换管道,包括保留光线和对比度的混合方法,以减少视频常出现不真实的抖动,生成时间上稳定的视频序列。
具体而言,分为以下几个步骤:
- 首先,对输入人脸进行裁剪和归一化预处理,将人脸归一化为1024×1024分辨率,并保存归一化参数。
- 而后,预处理过的图像会被输入到通用编码器中,用相应的解码器Ds进行解码。
- 最后,用多频段混合方法来交换目标人脸和源人脸。
渐进式训练的多向梳状网络
在网络架构上,迪士尼采用了单个编码器、多个解码器的方案,称作“梳子模型”。
即,网络的编码部分是共享的,而解码路径则分成P个域。
这样一来,一个模型就能同时处理多个源-目标对。
并且,实验表明,与双向模型相比,多向训练模型可以提高表达的保真度。
由于多向编码器允许生成不同的输出,这些输出既可以对应不同的身份,也可以对应不同照明条件下的同一张脸。
此外,还有一重优势是,相比于双向网络,使用单一网络的训练时间能明显减少。
网络的训练,则采取渐进式机制。
首先,对高分辨率输入数据进行下采样,形成粗糙的低分辨率图像,先用这些低分辨率图像进行训练。此后,逐步在训练中加入高分辨率图像,逐渐扩大网络的容量。
消除时间伪影
为了消除可见的时间伪影,研究人员还提出了一种稳定标志物定位算法的方法。
具体而言,是对人脸进行初始检测和对其,并标记人脸边界框的宽度w 。
然后,通过在图像平面的不同方向上扰动βw个像素,来重新初始化原始边界框n次。
研究人员发现,在1024×1024分辨率下,β=0.05和n=9时,可以消除所有可见的时间伪影。
保留光线和对比度的混合方法
不过,即使人脸已经完全对齐,姿势和面部表情也完全匹配,光度失准等问题,依然会造成换脸效果的不和谐。
比如出现明显的接缝。
针对这个问题,研究人员采用了保留光线和对比度的多频段混合方法,并强制要求边界平滑效果只传播人脸内部,确保外侧的人脸轮廓不会被平滑掉。
与常用的泊松混合(Poisson blending)方法相比,在目标人脸图像和源人脸图像光照不同的情况下,该方法消除伪影的效果更好。
所以,这个高清deepfake的效果应该如何评价?
直接看对比:
deepfake登上大荧幕,指日可待
不过,研究人员也指出,这个高清deepfake仍有局限性。
从展示的示例中可以看出,大部分人脸图像都是正对镜头的。
夸张的表情、极端的角度和光线,仍然会导致模糊和伪影。
但分辨率的提升,依然给deepfake带来了全新的商业可能性。
迪士尼就曾经在《星球大战》系列电影《侠盗一号》里,用特效换脸技术让已故演员Peter Cushing和Carrie Fisher重返荧幕。
不过,采用传统特效技术,通常要花费数月时间,才能获得几秒钟的画面,成本十分高昂。
相比之下,构建原始模型之后,deepfake在数小时之内就能完成换脸视频的制作。
看来,deepfake技术登上大屏幕,或许离实现不远了。
传送门
论文地址:
http://studios.disneyresearch.com/2020/06/29/high-resolution-neural-face-swapping-for-visual-effects/