为了让AI画出的人更加逼真,港中大博士生用了3.4亿张图像专门训练画人。
人物的表情、姿态,环境的空间关系、光线都能合理布局,可谓立体感十足。
就连爆火的SDXL也不是它的对手,话不多说,直接上图!
这个模型的名字叫HyperHuman,主打的就是一个真实立体。
它解决了Stable Diffusion等传统AI绘图工具在画人时图像不连贯、姿态不自然的问题。
而且不仅画得好,也更加“听话”,画出的内容能更好地匹配提示词。
那么下面就来具体看看HyperHuman都能创作出哪些作品吧!
无论是孩子还是老人,各个年龄段的人人物形象HyperHuman都可以画。
人物的动作、表情自然,空间关系看着也很合理。
不仅是图本身看上去真实,和提示文本的匹配也十分精确。
人物之外,HyperHuman能绘制出的场景类型也多种多样。
无论是单人还是多人,是滑雪或者冲浪……
如果和其他模型对比一下的话……
很明显,在这组提示词中,其他模型基本上都没能正确画出停止标志,而HyperHuman则正确地绘制了出来。
A man on a motorcycle that is on a road that has grass fields on both sides and a stop sign.
而在这一组中,其他模型的作品或者不知所云,或者出现各种细节问题,更有甚者画出的人长了三只脚,但HyperHuman依旧是稳定发挥。
Mastering the art of skateboarding is profoundly beneficial.
不仅是直观感受,在数据上HyperHuman也是全面碾压包括SD2.0在内的一众竞争对手。
图像质量方面,HyperHuman的FID、KID两项指标(均为数值越低效果越好)都超过了其他模型四分之一以上。
姿势准确度上,HyperHuman的两项评分也明显胜过了ControlNet等其他模型。
那么,HyperHuman又是如何实现的呢?
联合学习,分步生成
为了提高HyperHuman的效果,研究团队一共提出了两个思路。
首先是同时学习图片的颜色、深度图和法线图。
颜色反映外观,深度图反映物体位置,法线图反映表面角度。将它们一起学习,可以让模型更好地理解图片内容。
第二点则是分阶段生成,先使用文本和骨架点作为条件,生成颜色、深度和法线三者的初步合成结果。
然后以前面生成的条件作为指引,生成更高分辨率和质量的图片。
具体实现上,HyperHuman和SDXL一样也是采用扩散模型。
具体而言,HyperHuman使用的是“潜在结构(latent structal)”模型。
它的核心包括以下两个模块:
- 联合去噪模块:具有多个输入输出分支的统一网络结构,在颜色、深度和法线图三个维度同时去除噪声。
- 结构指导模块:用上一步产生的结果作为条件和指引,实现结构到纹理的精细化生成。
此外,为了提高鲁棒性,模型在生成过程中还会选择的的对一些条件进行取舍。
训练数据方面,开发者将LAION-2B和COYO两个数据集中的公开资源进行整合并处理、标注,得到了约3.4亿张图像的HumanVerse数据集。
结果在基于COCO 2014数据集的多个绘图模型横评中,HyperHuman(红色)都取得了最佳成绩,如果考虑文本匹配度,HyperHuman更是一骑绝尘。
△FID数值越低成绩越好
除了测试数据,研究人员还招募了100名用户,调查了他们更青睐于哪种模型的作品。
他们被要求选出更逼真、质量更好的图像,结果和另外多种模型相比,HyperHuman都更受欢迎。
作者简介
HyperHuman论文第一作者是香港中文大学博士生Xian Liu。
HyperHuman是他在Snap公司实习期间完成的,Snap的Sergey Tulyakov等人也参与了本项目。
此外还有香港大学和南洋理工大学的学者对HyperHuman亦有贡献。