Meta Platforms公司人工智能部门日前表示,他们正在教AI模型如何在少量训练数据支持下学会在物理世界中行走,目前已经取得了快速进展。
这项研究能够显著缩短AI模型获得视觉导航能力的时间。以前,实现这类目标要需要利用大量数据集配合重复“强化学习”才能实现。
Meta AI研究人员表示,这项关于AI视觉导航的探索将给虚拟世界带来重大影响。而项目的基本思路并不复杂:帮助AI像人类那样,单纯通过观察和探索实现在物理空间导航。
Meta AI部门解释道,“比如,如果要让AR眼镜指引我们找到钥匙,就必须想办法帮助AI理解陌生的、不断变化的环境布局。毕竟这是非常细化的小需求,不可能永远依赖于极占算力资源的高精度预置地图。人类不需要了解咖啡桌的确切位置或长度就能不产生任何碰撞、轻松绕着桌角走动。”
为此,Meta决定将精力集中在“具身AI”身上,即通过3D模拟中的交互机制训练AI系统。在这一领域,Meta表示已经建立起一套值得期待的“点目标导航模型”,无需任何地图或GPS传感器即可在新环境中导航。
该模型使用一种名为视觉测量的技术,允许AI根据视觉输入跟踪自身当前位置。Meta表示,这项数据增强技术能够快速训练出有效的神经模型,且无需人工数据注释。Meta还提到,他们已经在自家Habitat 2.0具身AI训练平台(利用Realistic PointNav基准任务运行虚拟空间模拟)上完成了测试,成功率达到94%。
Meta方面解释道,“虽然我们的方法还没有完全解决数据集中的所有场景,但这项研究已经初步证明,现实环境的导航能力不一定需要显式映射来实现。”
为了在不依赖地图的情况下进一步完善AI导航训练,Meta建立了一套名为Habitat-Web的训练数据集,其中包含10万多种由人类演示的不同对象-目标导航方法。通过运行在网络浏览器上的Habitat模拟器就能顺利接入Amazon.com的Mechanical Turk服务,用户能够以远程方式安全操作虚拟机器人。Meta表示,由此产生的数据将作为训练素材,帮助AI代理获得“最先进的结果”。扫视房间了解整体空间特点、检查角落是否有障碍物等,都是值得AI向人类学习的高效对象搜索行为。
此外,Meta AI团队还开发出所谓“即插即用”模块化方法,可以通过一套独特的“零样本体验学习框架”帮助机器人在多种语义导航任务和目标模式中实现泛化。通过这种方式,AI代理在缺少资源密集型地图和训练的前提下仍可获得基本导航技能,无需额外调整即可在3D环境中执行不同任务。
Meta公司解释道,这些代理在训练中会不断搜索图像目标。它们会收到一张在环境中随机位置拍摄的照片,然后通过自主导航尝试找到拍摄点位。Meta研究人员们表示,“我们的方法将训练数据削减至1/12.5,成功率则比最新的迁移学习技术还高出14%。”
Constellation Research公司分析师Holger Mueller在采访中表示,Meta的这项最新进展有望在其元宇宙发展计划中发挥关键作用。他认为,如果未来虚拟世界能够成为常态,那AI必须有能力理解这个新空间,而且理解的成本还不能太高。
Mueller补充道,“AI理解物理世界的能力需要由基于软件的方法获得扩展。Meta目前走的就是这条路,而且在具身AI方面取得了进步,开发出无需训练即可自主理解周边环境的软件。我很期待看到这方面成果在实践层面的早期应用。”
这些现实用例可能已经离我们不远了。Meta公司表示,下一步计划就是把这些成果从导航推进到移动操作,开发出能够执行特定任务的AI代理(比如识别出钱包并将其交还给主人)。