要实现完全自动驾驶?那一天的到来,可能比预计晚很多

如果你相信那些首席执行官们的话语,你就会相信,现在距离一辆完全自动驾驶(full autonomy)汽车实现的时间可能只需几个月。2015 年,埃隆·马斯克曾经预测,到 2018 年特斯拉就可以达到完全自动驾驶;谷歌也做出了相似的承诺。Delphi 和 MobileEye 两家公司也承诺,他们共同研发的 Level 4 自动驾驶系统将于 2019 年实现,而 Nutonomy 公司也计划在 2019 年,在新加坡街头部署数千辆无人驾驶出租车。通用汽车的计划是,在 2019 年让完全自动驾驶汽车投入生产,而且这台汽车没有方向盘且完全不需要司机的介入。

这些假设并不是空穴来风,在他们背后已经有了大量的资金注入,就是为了让自动驾驶软件开发的速度赶得上他们所承诺的自动驾驶到来的日子。

从表面上看,我们似乎比以往任何时候都更接近完全自动驾驶实现的日子。Waymo 公司已经在亚利桑那州的公路上测试了自己的自动驾驶汽车——虽然数量有限。特斯拉公司和许多其他效仿者已经卖出了一些功能有限的自动驾驶汽车——虽然还需要在意外情况时司机进行干预配合。目前开发出来的自动驾驶工具有时也会有一些意外情况出现,有些甚至是致命的,但是依照现在的逻辑,只要系统持续不断改进,照这个速度发展下去,不久之后就可以达到无需司机进行干预的自动驾驶水平。

要实现完全自动驾驶?那一天的到来,可能比预计晚很多

但实现完全自动驾驶汽车的梦想可能比想象的要更远得多。最近,人工智能专家越来越担心,我们可能需要数年甚至数十年,才能真正实现可以避免事故的自动驾驶系统。在 AI 自动学习系统应对越来越混乱的现实世界的同时,像纽约大学的加里·马库斯(Gary Marcus)这样的人工智能专家也不得不一次次将自己对 AI 系统的期望值重新进行调整,这种调整有时被称为“人工智能的冬天”。这可能会给那些以自动驾驶车维生的公司带来灾难性的后果,甚至将自动驾驶真正实现的日子推迟整整一代。

自动驾驶汽车就如同一个我们不知道答案的科学实验

其实,对于为什么汽车公司对自动驾驶的前景持乐观态度,我们很容易理解。在过去的 10 年中,深度学习——一种使用分层机器学习算法从海量数据集中提取结构化信息的方法,已经在人工智能和技术行业中取得了几乎无法想象的进展。它支持的服务包括了从谷歌搜索到 Facebook 新闻摘要,从语音转文本输入到获得世界围棋冠军的阿尔法围棋系统。除了被应用于互联网,我们还使用深度学习来检测地震、预测心脏病,并标记监控相机上的可疑行为,以及无数本来被认为是不可能的创新。

但深度学习是建立在大量的训练数据的基础上的,这些训练数据需要包含算法可能遇到的几乎每个场景。比如说,只要有足够多的训练数据来向学习系统展示足够多的每种动物的样子,类似谷歌图像那样的自动识别系统将会善于识别各种动物。马库斯将这种任务描述为“插值”过程,比如,让系统对所有被标记为“山猫”的图像进行学习,然后让系统自己来确定,一张新的图片是否属于这一组。

虽然工程师可以在数据来源以及数据架构上进行一定的优化,但是对于一个给定的算法这个系统可以学习或识别的程度一定是有一个极限的。比如说,运用某种算法机器只有在学习了成千上万张山猫的图片时候才能够识别出山猫,那么这台机器即使看到了无数张家猫和美洲虎的照片,并且知道山猫介于这两者之间,也无法识别出山猫。要想达到这个目的,我们还需要机器用一种新的被称为“归纳总结”的算法进行学习,这又是一套不同的技能。

长期以来,研究人员一直认为他们可以通过正确的算法提高 AI 的概括总结技能,但最近的研究表明,传统的深度学习在概括总结时比我们想象的要更糟糕。在一项研究中,研究人员将同一只北极熊在不同的、有着微小变化的背景中图片分别标记为狒狒、猫鼬或黄鼠狼,却发现运用传统的深度学习系统甚至难以对视频中不同的帧进行归纳总结。由于每个分类都是基于数百个因素的综合识别的,即使是图片的微小变化也可以完全改变系统的分类判断。

要实现完全自动驾驶?那一天的到来,可能比预计晚很多

图 | 深度学习网络对图片中的微小变化过于敏感

马库斯指出,聊天机器人的热潮实际上是不考虑深度学习在概括总结方面的问题却被炒热的例子。“我们在 2015 年说聊天机器人将会实现并有美好的前景”,他说,“但实际上它们并没有给我们的生活带来任何实质性的好处,因为要实现它并不仅仅是收集数据的问题”。当你在网上与一个人交谈时,你不仅仅想要他们重新讨论之前已经说过的对话。你还希望他们能够回应你所说的话,利用更广泛的会话技巧去做出只有对你才会说出的独有的回应。但是利用深度学习是无法制作出这种聊天机器人的。随后,一旦最初的宣传热潮消退,公司就会对自己的聊天机器人项目失去了信心,而且现在很少有公司仍在对该项目进行积极开发。

这也让特斯拉和其他自动驾驶公司不得不面对一个可怕的问题:自动驾驶汽车到底会不会不断变好,然后像图像搜索、语音识别和其他人工智能那样成为一个成功故事?还是他们会像聊天机器人那样不得不因为机器学习在概括总结方面的问题而遇到发展瓶颈期?自动驾驶的实现到底是插值问题还是概括总结问题?驾驶真的是无法预测的吗?

这些答案我们尚无法得知。“自动驾驶汽车就像一个我们不知道答案的科学实验。”马库斯说。我们以前从未能够实现这个级别的自动驾驶,所以我们不知道它到底是什么类型的任务。在某种程度上,它的主要任务是识别熟悉的对象和并且根据规则去做出反应,如果是这样的话,现有技术应该可以让它完成任务。但马库斯担心,在事故多发的情况下,自动驾驶可能比目前行业里想要承认的要复杂得多。“道路上会出现人类也意想不到的状况,对于深度学习来说它将不知所措。”

安全意义重大,不仅仅事关人工智能技术的质量

有时候自动驾驶汽车遇到出乎预料的情况却无法做出正确反应,我们这里有一些由于该问题导致的公共事故的报告实验数据。2016 年的一场致命的车祸中,一辆特斯拉 Model S 汽车全速驶向了一辆白色拖车的后部,主要就是由于自动驾驶系统无法辨别高度较高的拖车与反射的太阳光。今年 3 月份,一名优步自动驾驶汽车发生车祸,原因是汽车撞上了一位在未被官方标识为人行横道上出现的推着自行车前行的一名妇女。根据美国国家运输安全委员会的报告,优步的软件错误地将该女性识别为一个未知物体、一辆车或一辆自行车,每次重新识别都对路线预测进行更新。在加利福尼亚州的一次撞车事故中,由于一些我们仍不清楚的原因,特斯拉 Model X 在撞击之前曾突然转向冲向障碍物并加速前进。

虽然上面所说的每起事故似乎都是边缘个案,在这些情况下工程师无法提前做出预测。但几乎所有的车祸都会涉及某种不可预见的情况,如果没有足够的归纳总结能力,自动驾驶汽车在面对这些情景中的每一个时,都会认为这些情况是头一次遇到。这样的结果可能是,随着时间的推移系统遇到的这种边缘案例越来越多,这些事故也会变得更频繁。对于持怀疑态度的人来说,之前的一次自动驾驶转人工驾驶率的报告的已经表明,自动驾驶系统已经进入了瓶颈,之后将很难再继续像现在这样向前发展。

要实现完全自动驾驶?那一天的到来,可能比预计晚很多

前百度高管、业界最杰出的项目主导者之一、Drive.AI 董事会成员吴恩达 (Andrew Ng) 认为,问题不在于建立一个完美的自动驾驶系统,而在于训练旁观者预测自动驾驶汽车行为。换句话说,我们可以为汽车提供安全的道路,而不是让汽车去预测所有的不安全状况。作为一个不可预测的案例,如现代系统可以处理自己从未见过的在高速路上走高跷的行人,吴恩达说,“我认为许多自动驾驶团队开发的系统可以对在人行横道上走高跷的用户做出正确的处理。尽管如此,在高速公路中间的走高跷还是非常危险的。”

吴恩达表示:“我们应该与政府合作,要求人们合法行驶并对自动驾驶有一些宽容性,而不是要非要建立一个可以解决在路上走高跷的人的问题的人工智能系统。安全的意义重大,它不仅仅事关人工智能技术的质量。”

这个问题很难分开处理

AI 技术不仅仅只有深度学习,许多公司正在探索一些深度学习的替代品。尽管这些技术保密森严,仍有许多公司将转向了另一项更早的技术——基于规则的 AI 技术,这项技术使得工程师们通过硬编码制定特定的规则或逻辑。虽然这项技术没法让 AI 通过学习数据来自定义相应行为,但它却可以避开一些深度学习技术的局限。不过,鉴于目前自动驾驶的普遍认知仍被深度学习深深地影响着,很难说这些工程师们能否真的彻底突破这些潜在的技术难题。

Ann Miura-Ko 是一名 Lyft 董事会的企业资本家,她认为有一部分上述的问题对于无人车行业本身而言期望过高,这样将一概而论地把仍不成熟的自动驾驶直接定义为失败。“人们总是期望他们一步登天,这完全不符合新技术上的正常期望,我认为,每一个微小的优化都是自动驾驶成熟工业化路程上独特的风景。”

要实现完全自动驾驶?那一天的到来,可能比预计晚很多

尽管如此,我们仍不知道无人车会深陷在目前困境中多久。半自动驾驶产品——比如特斯拉的 Autopilot 系统,已经有足够能力来应对大部分自动驾驶的场景了,但它在遇到突发状况时也仍需要人为操作来干预。所以这种情况发生时,我们也很难说是无人车的责任还是驾驶员的责任。这对于某些批判家而言,即便有些故障并不完全是机器或技术的问题,这种半自动驾驶被认为比人为驾驶不安全得多。Rand Corporation 的研究表明,只有当无人车在没有人为干预的情况下自动驾驶超过 2.75 亿英里后才可以被认为是和人为驾驶一样安全可靠的。而第一起特斯拉 Autopilot 无人车引起的死亡事故仅仅行驶了 1 .3 亿英里,这远远没达到可靠性标准。

但深度学习已经是汽车探测物体并做出响应的核心技术了,要优化这方面的错误率并非看上去那么简单。针对今年早期的优步车祸导致行人死亡的事件,杜克大学教授玛丽·卡明斯(Mary Cummings)表示:“这个问题很难分开处理,识别物体并做出响应是环环相扣的。比如在对行人识别错误导致车祸的事件中,系统对于自动识别的误判什么事都没有做,因为传感器发出了太多的错误警报导致了紧急刹车关闭。”

这起事故最终以优步公司在今年夏天暂停了自动驾驶上的测试而结束,这也是对自动驾驶公司一个不好的预警。在产业界,各大公司都希望通过获取更多数据来争相解决这个问题,他们认为自动驾驶更多的里程将构建更稳固的系统。但这马库斯眼里却并非那么简单。“他们仅仅只是用现有的技术来期望这个系统能稳固工作,但依靠数据来学习的技术是基于这些数据都是已有事故的数据,而不能达到防范于未然的级别。”

发表回复

您的电子邮箱地址不会被公开。 必填项已用*标注