1 月 22 日消息,双手是我们与世界交互的重要工具,也是我们自我认同的重要部分。在虚拟现实的世界里,一双逼真写实的双手将极大地提升用户沉浸感和化身认同感。Meta 近期正在致力于让虚拟现实中的双手尽可能逼真和个性化,以增强用户在元宇宙中的沉浸式体验。
近日,来自 Meta Codec Avatars 实验室和新加坡南洋理工大学的研究人员联合发布了开创性研究成果 ——URHand,即“通用可变光照手部模型(Universal Relightable Hands)”。
URHand 并非简单的手部模型,它能够根据用户的真实双手进行个性化调整,并模拟真实光照环境下的手部细节,研究人员将其称为“首个可适应不同视角、姿势、光照和个体差异的通用可变光照手部模型”。该模型的一大亮点是,用户只需要用手机简单上传的几张自己的手部照片,该模型就定制出与本人相差无几的虚拟手,轻松将“你的手”带入虚拟世界。
目前尚不清楚这项研究何时能转化为实际产品。Meta 多年来一直致力于打造逼真的 Codec Avatars 技术,期望实现跨越时空的真实互动。IT之家注意到,近期扎克伯格与 Lex Fridman 在一档播客节目中展示了该技术的最新进展。Meta 的目标是将 Codec Avatars 带入独立式 VR 头显,但目前仍面临诸多挑战。
打造一个逼真的虚拟化身不仅需要逼真的头部和面部,还需要自然的肢体动作、真实服饰细节以及高度个性化的双手。双手的重要性尤为突出,因为它们是自我认同的重要部分。任何体验过虚拟现实中与自己真实双手完全不符的手部模型的人都会明白那种失真感带来的不适。URHand 的出现,无疑为解决这一难题迈出了重要一步。未来,当你在元宇宙中伸出手指,打招呼,或是握住虚拟物件时,或许会感觉就像是在现实世界中一样自然。