谷歌发布“Vlogger”模型:单张图片生成10秒视频

人工智能 新闻
只需要一张你的头像、一段讲话录音,就能得到一个本人栩栩如生的演讲视频。

谷歌发布了一个新的视频框架:

只需要一张你的头像、一段讲话录音,就能得到一个本人栩栩如生的演讲视频

视频时长可变,目前看到的示例最高为10s。

可以看到,无论是口型还是面部表情,它都非常自然。

如果输入图像囊括整个上半身,它也能配合丰富的手势

图片

网友看完就表示:

有了它,以后咱开线上视频会议再也不需要整理好发型、穿好衣服再去了。

嗯,拍一张肖像,录好演讲音频就可以(手动狗头)

图片

用声音控制肖像生成视频

这个框架名叫VLOGGER

它主要基于扩散模型,并包含两部分:

一个是随机的人体到3D运动(human-to-3d-motion)扩散模型。

另一个是用于增强文本到图像模型的新扩散架构。

图片

其中,前者负责将音频波形作为输入,生成人物的身体控制动作,包括眼神、表情和手势、身体整体姿势等等。

后者则是一个时间维度的图像到图像模型,用于扩展大型图像扩散模型,使用刚刚预测的动作来生成相应的帧。

为了使结果符合特定的人物形象,VLOGGER还将参数图像的pose图作为输入。

VLOGGER的训练是在一个超大的数据集(名叫MENTOR)上完成的。

有多大?全长2200小时,共包含80万个人物视频

其中,测试集的视频时长也有120小时长,共计4000个人物。

谷歌介绍,VLOGGER最突出的表现是具备多样性:

如下图所示,最后的像素图颜色越深(红)的部分,代表动作越丰富。

图片

而和业内此前的同类方法相比,VLOGGER最大的优势则体现在不需要对每个人进行训练、也不依赖于面部检测和裁剪,并且生成的视频很完整(既包括面部和唇部,也包括肢体动作)等等。

图片

具体来看,如下表所示:

Face Reenactment方法无法用音频和文本来控制此类视频生成。

Audio-to-motion倒是可以音频生成,方式也是将音频编码为3D人脸动作,不过它生成的效果不够逼真。

Lip sync可以处理不同主题的视频,但只能模拟嘴部动作。

对比起来,后面的两种方法SadTaker和Styletalk表现最接近谷歌VLOGGER,但也败在了不能进行身体控制上,并且也不能进一步编辑视频。

图片

说到视频编辑,如下图所示,VLOGGER模型的应用之一就是这个,它可以一键让人物闭嘴、闭眼、只闭左眼或者全程睁眼:

图片

另一个应用则是视频翻译:

例如将原视频的英语讲话改成口型一致的西班牙语。

网友吐槽

最后,“老规矩”,谷歌没有发布模型,现在能看的只有更多效果还有论文。

嗯,吐槽也是不少的:

画质模型、口型抽风对不上、看起来还是很机器人等等。

因此,有人毫不犹豫打上差评:

这就是谷歌的水准吗?

图片

有点对不起“VLOGGER”这个名字了。

图片

——和OpenAI的Sora对比,网友的说法确实也不是没有道理。。

大家觉得呢?

更多效果:https://enriccorona.github.io/vlogger/

完整论文:https://enriccorona.github.io/vlogger/paper.pdf

责任编辑:张燕妮 来源: 量子位
相关推荐

2023-12-20 14:54:29

谷歌Gen-2视频

2024-03-28 13:14:00

数据训练

2023-07-14 09:41:01

3DAI

2021-08-13 15:07:02

模型人工智能深度学习

2024-11-08 17:34:38

2024-04-07 13:31:51

谷歌VLOGGER视频

2011-06-24 09:15:26

Chromebook谷歌

2024-04-08 14:07:51

Animagine开源

2024-02-04 19:58:27

谷歌AI视频生成器

2024-10-15 14:08:06

2023-12-22 09:29:07

模型3D

2024-05-15 07:54:12

GPT-4oAI助手人工智能

2022-08-19 14:46:16

视觉框架

2024-02-19 07:58:01

OpenAI模型GPT

2024-02-27 09:19:13

谷歌AI

2023-02-06 09:31:07

视频图像

2021-10-20 11:56:35

勒索软件攻击数据泄露

2023-01-31 11:06:01

模型算力

2023-02-02 13:22:40

AICIFAR数据集
点赞
收藏

51CTO技术栈公众号