7月29日消息,据外媒报道,日前,谷歌推出一款名为Robotics Transformer2(RT-2)人工智能学习模型,旨在使其机器人更加智能。
据悉,RT-2是一种视觉语言行动模型的新版本,可教会机器人更好地识别视觉和语言模式,以解释指令,并推断出最适合请求的对象。
该公司在一篇论文中表示,新模型在网络和机器人数据上进行训练,利用谷歌自己的Bard等大语言模型的研究进展,并将其与机器人数据,如要移动的关节结合起来。它还能识别除英语以外的其他语言的方向。
多年来,研究人员一直试图给机器人灌输更好的推理能力,以解决如何在现实环境中生存的问题。但在现实生活中,机器人需要更多的指导才能为人类做一些简单的事情。例如,清理洒出的饮料。人类本能地知道该怎么做:捡起玻璃杯,找个东西把残羹剩饭清理掉,扔出去。
以前,训练机器人需要很长时间。研究人员必须单独编写指令。但借助RT-2等VLA模型的强大功能,机器人可以访问更大的信息集来推断下一步该做什么。