据福布斯网站报道,科恩实验室研究人员日前成功入侵特斯拉自动驾驶系统Autopilot这一事件表明,当前在事故发生后给漏洞打补丁的方式对自动驾驶汽车来说并不足够安全。从波音防失速系统出现漏洞而暴露出问题的严重性,不难看出自动驾驶汽车的可靠性是其关键核心。
通过在路上贴上几乎难以察觉的小贴纸,科恩实验室研究人员诱导特斯拉Autopilot将这些贴纸误判为车道标记,从而控制车辆转入反向车道。因此,对于自动驾驶汽车而言,在大部分情形下,在问题发生后进行漏洞修补显然不是可靠的方式,因为这关系到人的生命,而这也正是汽车行业的安全和可靠性标准高于硅谷的大多数产品的原因之一。
这也突出了使用深度学习模型驾驶汽车的主要问题之一。深度学习更擅长处理数据集有限且稳定的情况,在此前提下可以确保模型能够真实地显示每个数据点,并且这些数据点不会改变。然而,实际路况并不具备这样的条件,这意味着仅依靠深度学习算法推动自动驾驶汽车达到足够高的安全标准的可能性不高。
按照传统的硅谷思维模式“打地鼠”(whack-a-mole),这意味着每次系统崩溃时都要对其进行修补,但自动驾驶意味着系统漏洞或将以生命为代价,“打地鼠”显然不是确保自动驾驶安全可靠性的方式。这与一些人员研究的观点不谋而合,该研究强调了深度学习的局限性,并可能导致人工智能出现第三个“寒冬”。
最终的结果是,当前需要用一种不同的方法来实现自动驾驶,而重新思考这个系统将需要时间。虽然美国Radio Free Moblile机构目前仍坚持自动驾驶汽车到2028基本可以进入商业应用阶段,但能否成为现实还有待时间来验证。