只要你一句话,马斯克就得留扫把头,项目已开源

新闻 前端
这是来自Adobe、希伯来大学、特拉维夫大学的新操作,只需要一句话,就能让计算机“修”出你想要的图片。

本文经AI新媒体量子位(公众号ID:QbitAI)授权转载,转载请联系出处。

现在,Adobe不想让你用手P图了——动动口就行。

只需要你说一句话,计算机就能P出你想要的效果。

例如,说出想要的发型,马斯克就会立刻被剃头:“Hi-top Fade(扫把头),变!”

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

肤色、妆容也都能轻松改变,一句“face with/without makeup”就能上妆/卸妆:

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

△给霉霉上妆/卸妆

甚至还能直接改变人样,给小李子变出胡子、金发后,变成特朗普!

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

除了人,动物、景物也能P。

输入“cute cat”,就能让图中的猫变成“大眼萌猫”:

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

说一句“classic car”,它就能把你的车P成经典古老的车型,还能手动调复古程度:

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

简直是手残P图玩家的福音。

没错,这是来自Adobe、希伯来大学、特拉维夫大学的新操作,只需要一句话,就能让计算机“修”出你想要的图片。

现在,项目已经开源。

当GAN遇上CLIP

这一神奇的操作,来自一种新算法:StyleCLIP

没错,就是将目前最先进的GAN——StyleGAN,和OpenAI搞出来的CLIP模型结合到一起。

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

为何选择这两个模型?

其中,CLIP不能自己生成图像,但具有很好的图像分类效果。

它不仅可以理解输入的词语,还能将语义和图像特征联系起来。

也就是说,CLIP有着和人脑极为相似的工作方式,不仅能将CV和NLP从技术上打通,还给他们分配了专门的处理区域。

例如,一旦听到“蜘蛛侠”三个字、或是看到蜘蛛侠的照片,CLIP的某个特殊区域就开始响应,甚至原本用来响应红色和蓝色的区域也会“躁动”。

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

StyleGAN,虽然能实现照片级模拟,生成非常逼真的图像:

但StyleGAN、StyleGAN2等一系列GAN模型,却没办法独立更改如面部外观、形状或表情等参数,只能像下面这样,从整体、中等、微调等大方向去改变形象:

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

如果将CLIP和StyleGAN合成新模型,只需要一句文本信息,它就能帮你P出既逼真、又能控制细节的图像来。

点点鼠标,就能调整效果

事实上,模型的效果也确实不错,功能非常全面。

还自带一个图形界面窗口:用一句话说出需求后,用鼠标就能进行调节。

例如,一键将英国首相鲍里斯·约翰逊(Alexander Boris de Pfeffel Johnson)变成女人:

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

还能让他愁眉不展、或是开口大笑:

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

不仅能记住一整个人的面部特征,并根据需要换脸、换头发、换妆;还能应用在动物身上,甚至将老虎变成狮子:

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

当然,将普通的房子变成哥特式(gothic)建筑也行。

在单个NVIDIA GTX 1080Ti GPU上,进行全局预处理的时间是4个小时。预处理后,就能将不同的文本-图像对应用在上面了。

至于训练的时间,则需要跑10~12个小时,加上优化器后的推理时间是98秒。

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

那么,模型的稳定性如何?

即使背景人物不同,在用一句话P图后,它们之间的相似度也能达到73%以上,最高能达到84%。

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

也就是说,模型改变特征的效果还是很稳定的。

当然,即使测试效果很好,网友们还是发现了一些图片生成的bug

例如,网友发现,长着胡子的男性,看起来要比没有胡子的男性更生气?

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

有网友在测试后表示,个别效果如“加深男性肤色”(tanned man)确实不够好,需要进行数据清洗

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

除此之外,也有网友建议作者尝试进一步研究,如模型中的偏见性。

例如,试试“成功的男人/女人”、“罪犯”等形容词,看看这个模型会生成什么。

作者介绍

[[391453]]

一作Or Patashnik,来自特拉维夫大学(Tel-Aviv University),主要研究方向是计算机视觉。

[[391454]]

共同一作吴宗泽(Zongze Wu),来自希伯来大学(Hebrew University of Jerusalem),主要研究方向是计算机视觉,包括GAN、图像处理、图像翻译等。

只要你一句话,马斯克就得留扫把头,项目开源丨Adobe等出品

三作Eli Shechtman,来自Adobe,研究方向是计算机视觉,包括视频分析与合成、目标和动作识别、图形视觉、图像和视频检索等。

此外,来自特拉维夫大学的Daniel Cohen-Or、和希伯来大学的Dani Lischinski对这篇论文也有贡献。

说不定,Adobe真会将“动口P图”这一功能放进PS中呢。

项目地址:
https://github.com/orpatashnik/StyleCLIP

论文地址:
https://arxiv.org/abs/2103.17249

 

 

责任编辑:张燕妮 来源: 量子位
相关推荐

2022-12-11 14:29:56

AI编剧台词风格

2023-09-05 23:34:52

Kubernetes云原生

2020-11-27 09:57:11

Python代码PyPy

2015-08-03 10:21:04

设计模式表达

2024-01-06 17:12:44

视频AI

2021-05-17 22:35:17

比特币加密货币货币

2010-03-29 11:55:12

无线上网报错

2023-05-08 15:44:23

3D数字人

2014-05-07 10:47:51

移动金融互联网金融GMIC

2018-01-15 10:45:43

社交网络互联网巨头百度

2020-12-16 10:43:44

PythonPyPy代码

2019-09-05 10:13:28

2019-08-15 11:42:56

程序员电脑软件

2023-12-13 21:50:59

腾讯AI模型

2014-12-16 08:58:17

甲骨文Oracle数据库选件

2023-09-06 15:23:30

Docker容器K8S

2011-06-03 16:42:47

SEO

2023-05-12 14:13:23

3D建模OpenAI

2024-02-08 09:33:37

苹果AI

2011-11-01 07:23:59

乔布斯悼文
点赞
收藏

51CTO技术栈公众号