分享

自动驾驶进阶,要正确理解汽车行业的这些“潜规则”

 小饭桌 2020-08-27

+

- 整理丨李秋志子 -

编者按

陈禹行,吉大汽车系博士,师从郭孔辉院士,后在伯克利学术交流2年,师从美国工程院院士Hedrick。

同时,他也是易航智能CEO,易航智能是中国领先的自动驾驶方案提供商,采用低成本方案实现特斯拉水平的自动驾驶功能,包括自动泊车、车道保持、自动跟车、自动刹车、拨转向并线、单侧车道线保持等功能,样车已经完成10万公里测试。团队自主研发视觉和感知、决策和控制模块,独立完成整体自动驾驶方案。

近日,陈禹行在小饭桌人工智能创业班上做了主题演讲,全面解析了自动驾驶相关问题。小饭桌整理如下:

自动驾驶是什么?

背景:美国交通运输部于今年9月20日发布了关于自动化车辆的测试与部署政策指引,明确将SAE International J3016标准确立为定义自动化/自动驾驶车辆的全球行业参照标准,用以评定六个级别的自动驾驶技术。

按照这个目前国际上通用的自动驾驶分类“SAE J3016”,我们可以得出以下几个结论:

1)L3、L5称为自动驾驶。

2)L3、L4的区别主要是安全机制。

3)L4、L5区别是场景和功能。

4)L4、L5需要自动的退出机制。

5)L4、L5是以系统为主导,人为辅助因素。即如果发生任何情况,即使人没有任何响应,它也是没有问题的;如果此时人来监管,机器识别到人的驾驶行为有安全隐患,它也可以自动接管,人已经变成了一个从属地位。

我们举一些例子来说明:

1)辅助泊车,基本上在L1,因为它只管控转向,油门和挂档需要人来控制。

2)TESLA  Autopilot是L2,目前需要人实时监控这个系统,如果在车道线有问题的情况下,这个车会失控。

3)TESLA自动泊车是L3,人在车里按一个按纽即可,甚至油门、自动转向都是通过整个系统来执行的,但此时一旦出现任何问题,它会要求人来托管。

4)全自动泊车(人下车)是L4,这种功能是指人即使直接下车关上门,车也会自己泊到相应车位里。

5)Self driving taxi(自动驾驶的出租车)是一个完全L5的系统。

我们判断它是L几的流程是:

1)这个系统是否有持续的纵向或侧向的控制,如果有的话,它就是L1;

2)L1如果说可以把纵向或侧向的控制,一起来进行的话,它就是一个L2的系统;

3)L2的基础上是否需要驾驶员来实时监控系统,如果不需要,它就是一个L3。

4)L3的基础上,如果这个系统有问题时,不需要人来接管,就是一个L4。

5)L4和L5的区别,就是应用场景的不同。

以上,就是目前对整个自动驾驶分类比较权威的一种说明。

自动驾驶的发展“路线”

去年下半年时,主流媒体报道将自动驾驶的发展分成两种路线:

路线一:以TESLA(特斯拉)为代表的“渐进式”发展路线。

路线二:以Google为首的“快速发展”路线。

到底哪个路线可行,我们首先需要考虑几个问题:

1)我们到底对这个东西有没有需求?现在来看,我们对这种连方向盘都没有的汽车形态,是没有很大的需求,因为首先安全性有很大的隐患。

2)我们的需求迫不迫切?整个市场的需求目前是比较小的,加上对用户较长一段时间的培养这个需求也是一点都不迫切的。

3)我们能不能买得起?这样一样辆车大概是25万美金左右,整个传感器、执行器、控制器,都是非常高频的,价格也很贵。

4)我们能不能做出来?Google的这辆车,整个处理器都不是车规级的,同时也使用了很多非车规级的芯片、控制器等,所以在汽车行业里,这种东西是没有办法上路销售的。

而就TESLA(特斯拉)目前来看,它的需求就比较清晰了:

1)从自身巡航的ACC系统来,它首先解放了我们的双脚,但双手还需要操作方向盘,一旦方向盘能通过自动驾驶来行使,对于整个用户的感受是一个质的飞跃。

2)那么我们在车上只需要监控,发微信、打电话等都可以在车上同时做,这种需求相对来讲会比较迫切。

3)TESLA目前采用一个低成本方案,整个用电成本在1000美金左右。

4)最后到底能否做出来,目前TESLA整个自动驾驶造出来了,它不需要任何非车规级的传感器,已经相当于自动驾驶的代表公司。

商用车自动驾驶的发展

对于商用车自动驾驶的发展同样是以上几个问题:

1)我们对于商用车有没有需求?目前就国内而言,这种商用车恶性事故频发,国内市场对于商用车的需求一定是存在的。

2)我们的需求迫切不迫切?从我目前来看,中国市场对于商用车的自动驾驶不是非常迫切的。因为国内商用车的驾驶员人工成本是比较低的:国外商用车驾驶员基本上月薪要1-2万美金,国内可能为3000-4000人民币。

3)我们到底能不能买得起?国外的奔驰、沃尔沃等大概会在100万人民币以上,国内像一汽、解放等大概在40万人民币左右,是国外价格的三分之一。整个成本要求是很高的,对我们现在自动驾驶系统要增加很多成本这件事情,他们接受的程度就比较低。

4)我们能不能做出来?目前在国内的商用车市场,商用车整个执行器,包括转向、制动、油门,都是不可控的。所以整个商用车技术还需要一定的发展,在整个执行器方面能够达到自动驾驶的需求之后,我们才有可能做出这样的自动驾驶系统。

自动驾驶系统目前应用场景最广的是商用车,因为首先第一步就应该切入商用车。但是,我们目前对于商用车没有任何的需求,至少在目前这个时间点上,如果我们做商用车,肯定是死得最早的一批。

自动驾驶系统和DL算法结合

当前自动驾驶是AI方向和汽车方向二者结合最典型的点,大家就会想,为什么不能把自动驾驶和深度学习做结合:

1)深度学习、增强学习是目前非常流行和高大上的两个热点方向,它也在市场上备受追捧。

2)是目前深度学习在自动驾驶决策中的部分应用,它可以产生应用和结合的算法。

3)增强学习通过足够的样本,来训练自动驾驶系统,即以后不需要任何的开发,我们只需要人开,开的时间越长,最后自动驾驶汽车感受越好。

4)它的代表公司是Comma.ai,Comma.ai创始人说,他用8000行代码就可以搞定整个自动驾驶系统,可以达到仅次于特斯拉的体验程度。

自动驾驶系统的“落地”

其实一旦落地到汽车行业里,就会发现有很多问题:

1)如何将最新的算法回归到汽车工业?

2)自动驾驶与增强学习的结合靠谱吗?

3)能保证不像AIphaGo一样突然失控吗?

首先,深度学习,或者神经网络并不神秘。在车辆工程领域,它在汽车工程领域很早就有应用,比如说发动机、底盘、轮胎等,在动力学、力学包括燃烧上,有很多现在通过建模很难达到的系统里面,我们一般都会应用神经网络:

1)理论体系不完善。现在我们可能在车用,尤其是发动机里有很多燃烧、流体等复杂的东西,里面的系统可能不是特别完善。

2)由于不是同一领域而对理论认识有限。因为汽车行业是一个交叉性的应用学科,所以里面有很多非车辆行业的知识,在这种情况下,一般汽车工程师都会有一部分的建模,用神经网络表示出来,最后再进行动作分析。

3) 理论体系太过复杂无法工程化时,引入神经网络作为一种替代方案。由于理论体系太过复杂无法工程化的,现有的芯片或计算平台难以将它实现。在这种情况下,研究神经网络就作为我们的一种替代方案。

其次,深度学习是一种概率的学习,与安全性相矛盾,因此在车辆领域的应用非常谨慎。主要是由于:

1)我们没有办法知道问题出在哪里。这在汽车行业里是非常重大的一个问题,因为它直接关系着我们所有人的生命,这是完成的一个重点。

2)外延性是无法验证的。你通过你学习的那些样本得到了你没有学习到的情况,如何能够验证你的外延性?

3)所需数据量很大,处理器需要很强大,所以它的成本很高。

第三,汽车领域和安全直接相关,因此所有系统的安全性必须要达到100%的可靠性,并且加入冗余。车辆领域对安全性的要求有以下几点:

1)出现问题可以复现出来。比如,有一些故障是偶发性的,或者,一辆车怎么开都没有问题,一旦车上量了以后,它突然会出现5辆车出现问题,这样的问题我们都必须复现出来。

2)出现问题可以立即改正,这两个要求深度学习目前都无法做到。 比如,我们把车辆召回以后,如何把整个控制方法做一些修改,目前深度学习都没有办法做到。

目前在车辆领域主流的方法是:在对理论探索之后,在原理基础上进行简化,而一般不直接应用神经网络。 但可能有一些比较细微的地方,或可控范围内,我们可以引入深度学习或神经网络。

我们不会把整个自动驾驶完全交给深度学习(神经网络),因为对我们安全性有极大的隐患。比如,如果Comma.ai应用深度学习出现了事故,没有任何办法查找问题,只能继续这样直至事故样本(负样本)量积累足够,但每次负样本意味着一次交通事故,或交通事故隐患,所以现在Comma.ai的产品是被美国高速公路安全管理局禁止出售的。

自动驾驶的法规和限制

1)在雷达方面有一些芯片的禁售。自动驾驶很多传感器,精度越来越精,之前一般应用在军事上的,比如战斗机;目前一个核心的传感器,比如说雷达芯片,国内是禁售的,刚刚放开了NXP。

2)雷达的开放频段。因为我们现在用的毫米波雷达也是一个频率比较高的雷达,这个频率国家也是有很多的限制,目前很难引入到国内来。

3)CMOS芯片禁售。尤其是夜视成象的,这种一般都是在原来的战斗机上使用的,一直国内禁售,现在也刚刚开始放开。

4)视觉SLAM牌照。很多做SLAM的就涉及到采集街景,就需要国内的高清地图牌照,国家管控特别严。

5)新能源车牌照。自动驾驶第一个问题是,如何跟这样新能源的主机厂进行合作,他们的牌照对于我们整个系统有限制。

自动驾驶的系统构成

自动驾驶系统主要由传感器、控制器、执行器来构成,这跟任何的汽车电子系统都是一致的。

传感器:摄像头、激光雷达、毫米波雷达、超声波雷达、高清地图,或者是一些地图APP、V2V/V2X。

控制器:分为我们实现自动驾驶的软件算法和我们要搭载软件算法的硬件平台。

执行器:就是制动、转向,以及我们VCU或者发动机控制的ECU。

有以下三点理解:

1)执行器是属于“车”的部分,就是说我们自动驾驶真正落地的时候,一定要考虑到的部分,目前是传统供应商巨头已经成熟的优势领域,难以切入。

2)传感器和控制器是自动驾驶领域创业的重点。

3)控制器供应商作为Tier 1,因为它会整合所有的系统;传感器供应商作为Tier 2,因为它只完成自动驾驶中间的一部分。

传感器的区别和限制

第一,在物体检测上:

1)方位检测。雷达和激光雷达对于位置的距离和方位的测量,一般来说是比较精的,摄像头在这方面差一些。

2)速度检测,毫米波雷达会好一点,激光雷达和图像识别相对来讲差一点。

3)应用场景,毫米波雷达在大雨、大雪时,目前都是可以的;激光雷达由于在雾霾中,它跟光衍射的频率基本上是一致的,所以在大雨、大雾天,它有一定的限制;摄像头会更差一些,比如夜晚你就没有办法使用了。

第二,在物体分类上,像物体的形状、整个属性,摄像头可以识别出来。

第三,在目标追踪上,雷达会稍微领先一点,计算机视觉在做物体跟踪时,效果也特别的好。

第四,在道路检测上,这是唯一一个雷达干不了的事,一定要通过摄像头来完成。

在这种情况下,对于自动驾驶的精确定位来讲,我们现在有几种办法:

1)用激光雷达做自定位,这种激光雷达成本比较高,短期内不会应用这种办法。

2)RTK技术,就是一种差分基站,它可以通过接收端让我们做到高精度的定位,但是目前国内也没有放开。

3)通过计算机视觉来识别,我们道路上固定的标记,来反算我现在的精确位置,这是目前高清地图和自定位里面的主流技术,它也需要依靠视觉。

4)当所有的传感器都不能达到我们全部的需求,最后把整个传感器的优势结合在一起,达到我们对整个环境改变的要求,完成自动驾驶的一些算法,是我们现在非常非常重要的技术。

最后,雷达是产品安全性的底线,摄像头是我们用户体验的上限。

1)因为摄像头有很多的漏检、误检,一旦真正采用后,会导致很多安全隐患。

2)而雷达正相反,如果这个地方有一个物体,它一定会检查出来,当然它会有一些误报。

CV(计算机视觉)和大数据的作用和局限

目前基本上就是一个CV和大数据的“万能论”,主要有以下几种:

1)计算机视觉目前在很多领域已经达到、超过人眼能力了。

2)计算机视觉会越来越趋向于、超过于人的视觉能力。

3)计算机视觉的硬件平台都是电子元器件,成本会越来越低,速度会越来越快。

4)CV和大数据一旦解决了对环境感知的问题,自动驾驶就水到渠成了。

而汽车行业的“潜规则”,我们有以下几点理解:

1)做自动驾驶时,我们对前方车辆的识别,究竟和我们每天早晚上下班打卡时,人脸识别的性质是不是一样的?

在自动驾驶时,一旦发生问题就是一次事故,所以这个识别一定要达到100%,否则就会成为一个大的安全隐患。

2)视力和驾驶能力究竟有没有必然的联系?比如,我们现在对所有的前方车辆和行为,都有非常精确的识别能力,代表不代表我们的自动驾驶系统已经会非常完善?

自动驾驶实际上是一个驾驶行为,作为对环境的感知,只是我们整个驾驶行为的其中一部分,即使我们解决了环境感知,我们依然没有办法做到一个非常完善的自动驾驶系统。

3)硬件平台AEC车规认证。自动驾驶系统硬件平台,需要车规级认证,保证所有芯片的抗震、防尘,但往往能够实现这个要求的芯片,性能都不是特别高。

操作系统的实时性 。目前对于图象处理大多采用linux操作系统,一旦系统掉链或者崩溃,重启时间需要在毫秒级别,但目前我们用的操作系统都要几十秒,具有很大的安全隐患。

4)驾驶员的学习机制。我认为计算机视觉未来应该是一个趋势,但短时间内很难成为一种主流的方案。因为我们没有办法让一个自动驾驶系统,去认识锅、碗、盘子等,一旦路面上出现一个盘子,它怎样来识别这个东西,这就是学习机制的区别。

5)它是一个方向,道路会很漫长,短期肯定还是需要通过传感器融合来完成我们对整个道路的感知。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多