相隔3000英里,用苹果头显遥控机器人!UCSD、MIT华人团队开源TeleVision

人工智能 新闻
现实中,机器人收据收集可以通过远程操控实现。来自UCSD、MIT的华人团队开发了一个通用框架Open-TeleVision,可以让你身临其境操作机器人,即便相隔3000英里之外。

你是否曾想过,自己身处某地,可以控制几千公里以外的「机器人」本体?

这个想法,最近被来自UCSD和MIT的华人学者们实现了。

UCSD位于加利福尼亚州,MIT位于马萨诸塞州,这两地之差,约3000英里(4800公里)。

不过,MIT的研究人员竟通过头戴Apple Vision,实现了远程操控UCSD实验室中的机器人,效果让人为之惊叹。

图片

只见人类空手做出了手持易拉罐的动作,机器人在另一边也做出了同步的动作,然后依次将6罐芬达放置在了盒子里。

完成之后,人类做了OK、以及🤟手势,机器人也跟着有模有样,做了出来。

这一想法之所以能够实现,背后源于研究者提出了一个沉浸式的远程操作系统——Open-TeleVision。

图片

论文地址:https://robot-tv.github.io/resources/television.pdf

Open-TeleVision创新之处在于,可以提供立体式感知环境,实现操作者动作到机器人的精确镜像,创造出一种沉浸式体验。

正如论文作者所言,仿佛操作者的思维被传输到了机器人的身体中。

值得一提的是,你不仅可以用头显,还可以用笔记本、iPad、甚至是手机,完成对机器人的远程操控。

图片

那么,这项研究意义何在?

现实生活中,机器人能够学习的数据非常少。远程操控的方法,可以用于收集机器人行示范中学些所需的真实机器人数据。

研究人员正式希望通过Open-TeleVision这一方式,进一步帮助这一领域探索出更多的场景数据。

远程操控,让机器人替人类打工

可以畅想下,有了这样的技术,我们未来生活会有怎样的巨变?

在实验室闷头苦干的人不一定非得是自己,你可以在家即可操控机器人,取样本、分析都能完成。

图片

而且流水线上的工人们,可能要被这些机器人逐渐取代。看着将耳塞精准熟练地装进透明的盒子,足见其强大。

图片

它们还可以胜任收银员的工作,一手拿着扫码器,一手拿着商品,逐一完成扫码任务。

图片

建筑工地中,一些危险的活儿,也能交由它们做。拿着电锯在指定位置打孔,不得不说真的强。

图片

你还可以让机器人作为你的化身,陪你做游戏。

图片

友好互动,机器人做的也是毫无违和感。

图片

下面这是一个超有爱的画面,只见机器人将Hellokitty挂件递给女生后,还做出了比心的动作。

图片

再来看看更多,跨越更远区域的演示。

研究人员做装网球的动作,机器人将现实中物体装进桶中。

图片

下面这个比较有意思,MIT研究人员控制一台机器人,向与另一台机器人传递镜子。

图片

以上皆是远程操控完成任务的案例,不过研究者开发的系统,也能够让机器人本体,自主去完成一些精准的任务。

比如,分类不同易拉罐饮料。

图片

叠毛巾等等。

图片

看过这么多精彩演示,你一定想了解其背后的技术原理,不如一起来看看。

技术介绍

正如开头所述,研究人员开发了一种通用框架Open-TeleVision,可以应用到不同机器人、机械手臂上,用VR设备完成高精度远程操控。

通过捕捉人类操作者的手部姿势,作者执行重定向操作,来控制多指机器人手或平行夹持器。

另外,研究者依靠逆运动学将操作者的手根位置,转换为机器人手臂末端执行器的位置。

图片

图片

整体的系统概述如下图2所示。

研究人员基于Vuer开发了一个网络服务器。VR设备将操作者的手、头和手腕的姿态以SE(3)的形式流式传输到服务器,服务器负责处理人类到机器人的动作重定向。

图片

图3展示了机器人的头部、手臂和手如何跟随人类操作者的动作。

反过来,机器人以每只眼睛480x640的分辨率流式传输立体视频,整个循环以60Hz的频率进行。

图片

硬件配置

具体来说,研究人员对两种机器人进行了实验,如下图4所示。

它们分别是人形机器人Unitree H1,以及配备夹持器的Fourier GR-1,来执行双手操作的任务。

图片

对于主动感知,研究人员专为H1设计了一个具有两个旋转自由度(偏航和俯仰)的云台,安装在躯干顶部。

这个云台由3D打印部件组装而成,由DYNAMIXEL XL330-M288-T电机驱动。

图片

对于GR-1,他们使用了厂商提供的3自由度颈部(偏航、滚动和俯仰)。

两种机器人都使用ZED Mini立体相机提供立体RGB视频流。

具体材料费用细节,下表列出了一些要点。

图片

有了所具备的硬件,就要开启实验了。

实验结果

论文中,研究人员主要研究了两个问题:

- Open-TeleVision系统的关键设计选择如何影响模仿学习结果的表现?

- Open-TeleVision远程操作系统在收集数据方面的效率如何?

这里,研究人员选择ACT作为模仿学习的算法,并进行了两项关键修改。

一是,用更强大的视觉骨干网络DinoV2替换了ResNet。DinoV2是一个通过自监督学习预训练的视觉Transformer(ViT)。

二是,使用两个立体图像作为Transformer编码器的输入,而不是使4个独立排列的RGB相机的图像。

DinoV2骨干网络为每张图像生成16 × 22个token。状态token是从机器人当前的关节位置投影而来的。

对于H1机器人,动作维度是28(每个手臂7个,每只手6个,主动颈部2个)。对于GR-1机器人,动作维度是19(每个手臂7个,每个夹持器1个,主动颈部3个)。

具体实验中,作者选择了四个强调精确性、泛化能力,以及长期规划的任务,以展示Open-TeleVision的有效性,如下图5所示。

图片

模仿学习

在易拉罐分类任务中,分别评估了拾取罐子的成功率和将其放置到指定位置的准确性。根据表1中H1的结果,Open-TeleVision在这两项评估指标上都具有最高的成功率。

在拾取子任务中,新模型始终优于其他两个基准模型。

在毛巾折叠任务中,研究者的模型和使用ResNet18的模型都达到了100%的折叠成功率。

图片

泛化能力

此外,研究人员在随机化条件下评估了模型的泛化能力。

在使用H1进行的罐子分类任务中,评估了模型从一个4x4网格(每个网格单元为3厘米)中拾取罐子的成功率,如图6(左)所示。

详细结果在图6(右)中展示,这表明新策略能很好地泛化到数据集中覆盖的大面积区域,实现100%的成功率。

图片

与此同时,TeleVision系统在相同批量大小下训练速度提高了2倍,并且在4090 GPU上可以在一个批中容纳4倍的数据。

在推理过程中,TeleVision系统也快了2倍,为逆运动学(IK)和重定向计算留出了足够的时间,以达到60Hz的部署控制频率。

图片

针对用户研究,可以看出不同用户对机器人在任务分类中的偏好。

图片

在图8中,展示了Open-TeleVision能够执行的更多远程操作任务,比如木板转孔、耳塞包装任务,液体试管。

图片

如图9所示,Open-TeleVision系统还实现了远程操作。

图片

总而言之,这项研究中提出了一个沉浸式远程操作系统Open-TeleVision,实现了精确的任务操作。

不过,作者也指出,系统仍缺乏其他形式的反馈,比如触觉。

而且在第一人称视觉被遮挡和需要大量触觉任务中,触觉反馈通常是主要的反馈形式。

一个能够重新标记专家数据的系统,对提高成功率可能非常有帮助,这也是当前系统所缺失的。


责任编辑:张燕妮 来源: 新智元
相关推荐

2021-03-08 13:10:09

人工智能机器学习技术

2024-09-11 14:59:00

2021-07-13 15:18:30

机器人MIT人工智能

2017-03-07 16:10:36

脑控机器人纠错

2023-05-19 13:19:24

机器AI

2024-10-18 16:50:00

机器人特斯拉

2024-09-02 10:00:00

机器人开源

2021-06-21 15:24:56

机器人人工智能算法

2021-07-19 09:11:05

机器人人工智能算法

2022-12-29 18:07:25

DDD电话机器人

2021-03-25 09:25:55

机器人人工智能系统

2023-05-04 08:15:05

人工智能AI开源

2017-03-28 17:18:20

2021-08-05 10:58:58

Facebook开源Droidlet

2021-07-21 17:24:28

OpenAI机器人AI

2020-10-15 15:42:00

人工智能

2024-11-04 14:35:00

AI机器人

2021-05-10 13:05:01

机器人人工智能系统

2017-01-12 21:08:23

机器人开源ROS

2021-04-26 09:46:28

机器人人工智能系统
点赞
收藏

51CTO技术栈公众号