近日,来自 Amazon One 的研究人员提出了一个训练 GAN 的框架,可以对生成的图像进行显式控制。该框架能够通过设置确切的属性(例如年龄,姿势,表情等)来控制生成的图像。
Amazon One团队最近提出了一个可以对生成的图像进行显式属性控制的GAN训练框架,能够通过设置确切的属性来控制生成的图像,如年龄、姿势、表情等。
这篇论文目前已经发布在arxiv上,并且在Google网盘中有相应的补充说明。
目前大多数编辑GAN生成的图像的方法都是通过利用隐空间解构属性来实现部分控制,这些属性是在标准GAN训练后隐式获得的。这种方法能够改变某些属性的相对强度,但不能显式地设置它们的值。
而最近提出的方法,是为显式的准确控制人脸属性而设计的,利用可变形的3D人脸模型来实现GAN中的细粒度控制能力。
与以往方法不同的是,这种控制不受限于可变形的三维人脸模型参数,并且可以扩展到人脸领域之外。
使用对比学习,获得了具有明确分解隐空间的GAN。这种分解被用来训练控制编码器,将人类可解释的输入映射到合适的隐向量,从而允许显式的控制。
在人脸领域,研究人员展示了对身份、年龄、姿势、表情、头发颜色和照明的控制,还演示了我们的框架在画像和狗图像生成领域的控制能力,证明了新的方法在质量和数量上都达到了SOTA。
在第一阶段,构建每一个batch的每个属性都有一对隐向量,共享一个相应的子向量。 除了对抗性损失外,该批图像中的每张图像都会以对比的方式,逐个属性地与其他所有图像进行比较,并考虑到它的子向量是相同还是不同。
在第二阶段,编码器被训练成将可解释的参数映射到合适的隐向量。
在推理阶段,是通过将第k个编码器输入设置为所需值,实现对属性k的显式控制。
对光线、角度和表情的显式控制效果:
研究人员使用了ArcFace提取生成图像的嵌入向量,具体做法是生成10K个共享ID属性的图像对和具有不同的姿势、照明和表情属性的图像。
对发色和年龄的控制效果:
为了验证模型确实对输出有明确的控制,研究人员进行了控制精度的比较。从FFHQ中随机选取10K张图像,并对其属性进行预测,以产生一个在真实图像中出现的可行属性池。
还可以实现在保持其他属性不变的情况下,改变绘画的艺术风格:
对于喜欢养宠物的人来说,也可以显式控制生成的狗狗图像的一些属性:
同时,不只可以改变一个属性,还可以同时控制多个属性值:
通过测试Amazon One的可控GAN模型,本以为现在的美颜工具已经十分好用了,看来未来还会有更加惊艳的功能可以期待。