分享

自动驾驶汽车到底需要哪些类型的传感器?看完这篇你就懂了

 阿明哥哥资料区 2018-01-13

转自:新智驾





一般来说,Level 0 意味着没有自动驾驶,司机要负责控制一切。


Level 1 则意味着车辆进阶到了辅助驾驶阶段,在行驶中辅助系统能为司机分担不少任务(如 ACC)。


Level 2 意味着车辆进入半自动化状态,不过司机需要全程监控系统。同时,至少一个车载系统(如巡航控制和车道保持)实现全自动化。


Level 3 代表有条件的自动驾驶。司机需要时刻监控系统并在关键时刻介入。当然,一些安全功能也会在某些情况下自动介入。


Level 4 就是高级别的自动驾驶了,不过它无法覆盖所有的驾驶情况(如恶劣气候),且受到车辆操作设计的限制。不过,司机无需继续监控路况了。


Level 5 是自动驾驶的终极状态,车辆能应对任何状况,司机们宣告彻底失业。


从现有情况来看,还没有制造商能拿出 Level 3 以上的自动驾驶量产车。不过,一些国家的立法机关则正在讨论为 Level 3 自动驾驶汽车开绿灯,用户最快将于 2020/2021 年在市场上买到此类车辆。


想要实现 Level 1-5 级别的自动驾驶,到底需要哪些传感器?这个问题我们已经作了回答:摄像头、激光雷达和雷达三套系统必不可少。


有些人会问,现在车上普遍用到的倒车雷达以后还有用吗?答案是否定的。不过,在 Level 1/2 上就用到的摄像头和雷达系统依然是更高级别自动驾驶的先决条件。



* 车辆会用到各种不同的传感器


现在的摄像头系统普遍使用 CMOS 图像传感器,像素维持在 100-200 万左右。单色或者立体相机与雷达系统配合使用,就能实现车速、车距、障碍物或移动物体轮廓的精准探测。近程(24 GHz)和远程(77 GHz)雷达则安装在车辆前后以监控交通情况,它们的可视范围可覆盖车辆前后几厘米到几百米的范围。




值得注意的是,无论是 2D 还是 3D 摄像头,都需要搭载动态范围超过 130 db 的图像传感器。如果连这样的标准都达不到,在摄像头遭受阳光直射时,就会短暂“瞎掉”。眼下,市场上最棒的图像传感器动态范围可达 145 db同时 ISP 图像信号处理器色深可达 24 bit,普通产品根本无法望其项背。


图像传感器还需要另一个重要参数,那就是光照强度。市场上能买到最棒的图像传感器照度可达 1 mlx,帧率则为 30 帧/秒。


现在汽车上装载的后置和 360 度摄像头系统一般采用集中式架构这就意味着一个中央控制单元需要处理 4-6 个摄像头传来的原始数据。由于整个处理过程都在软件中完成,因此处理器的性能必须相当强悍,添加 FPGAs 成了硬件加速的最佳方案。不过,这也就意味着功耗会大幅提升。此外,现有数据压缩方式的限制也让数据存储成了一大障碍。


既然集中式架构有自己天然的劣势,我们何不换一种方式?


摄像头系统分类概览


上图就是一种新思路,图像处理任务被分配给了摄像头,随后的数据则通过以太网传输到车辆主机。这样一来,图像的聚合与再现就完成了。


2020 年以后,车载摄像头系统大多数都会数字化。现在的数字摄像头系统则会接收原始数据,随后将其处理并推送至显示单元(如下图所示)。


集中式图像处理


如果是去中心化的处理方式,则会彻底消除摄像头控制单元(ECU)的影响,让智能摄像头和主机独立行事。从细节上来说,这种方式也需要在摄像头内进行两步处理(如下图所示)。


处理过程要分两步进行


第一步完全在智能摄像头内进行,整个过程会完成一些几何转换,如图像畸变、重叠层的处理和图像压缩。此外,以太网的处理和串流也会同步进行。


第二步则发生在中央摄像头模块中,系统会进行视频解码,随后通过中继存储器将图像投射到屏幕上。


这种方式让后置摄像头能压缩并将数据通过以太网传输到主机。下图就是一款高度集成后置智能摄像头的技术细节。



未来智能摄像头的应用会将来自 4 颗摄像头的视频信号合并成 360 度视角的画面(如下图)。



前置摄像头系统


以往的事故数据显示,有 76% 的事故都单纯由人的错误引发,而事故原因包含人的因素的更是高达 94%。


ADAS 系统需要雷达传感器的支持,而雷达也是实现自动驾驶功能的一大功臣。值得一提的是,雷达其实是个缩写,而其全称 Radio Detection And Ranging 其实已经说明了它的作用,利用无线电波对物体进行探测和定位。


现在的雷达系统主要基于 24 GHz 或 77 GHz 两个波段,其中 77 GHz 的优势主要在于距离和速度测定的准确性,此外其角分辨率也更加精准。同时,运行于该波段的雷达系统天线得以瘦身,干扰问题也更小。以下为近程雷达(SRR)应用与中远程雷达(MRR/LRR)应用的主要区别。


其中近程雷达应用包括:


  • 盲点探测(盲点监控)

  • 车道和车道变更助手

  • 用于碰撞预警和防撞功能的后置雷达

  • 泊车辅助

  • 交叉车流监控


中远程雷达应用包括:


  • 刹车辅助

  • 紧急刹车

  • 车距保持


SRR 应用设计之初是为了替换超声波传感器并对高度自动驾驶提供辅助。因此,传感器会被安装在车辆四角。此外,车辆前部还会安装用于远程探测的前视传感器。当然,车辆每一边还要安装其他辅助传感器。


理想状态下,这些雷达传感器会使用 79 GHz 频段,带宽则为 4 GHz。不过,现在的全球频率规范只允许 77 GHz 频段 + 1 GHz 带宽。眼下,雷达微波单片集成电路(MMIC)的一个普通分区就配备了 3 个发射通道和 4 个接收通道。业内主要的争论点是要不要在 MMIC 中集成基带处理能力,要不要将精力集中在原始数据雷达传感器上。


其区别在于基带处理器能提供所谓的“目标预判”,这就意味着它能输出预先处理的数据,如未验证的速度、距离、信号强度、探测到物体的水平角度和垂直角度等信息。原始数据雷达传感器则能提供未过滤的原始数据,随后交给 ECU 处理。下图就是原始数据雷达传感器的基本架构。


原始数据雷达传感器架构


以上图为例,基带被整合进了雷达过程控制器中,而雷达传感器会给过程控制器提供未过滤的原始数据。这种方案有多重优势,首先将基带融合进过程控制器能节省空间和关联成本。


其原因在于,在射频应用中制造商可以使用相对简单的 CMOS 细线来替代经过特殊优化的新技术。


第二点优势主要涉及功率损耗问题,雷达传感器的功率损耗可以转移到控制单元。由于控制器的空间比雷达传感器大得多,因此控制功率损耗要简单的多。


最后,由于整个过程中没有过滤或压缩,因此数据没有损耗信号处理和灵活性方面就增加了更多可能。对于原始数据雷达来说,数据速率也不是问题,因为数据可借助 MIPI CSI-2 通信接口(见下图)进行传输。


MIPI CSI-2 通信接口


需要注意的是,该接口并不是什么新玩意,它已经用在了视频环绕系统中。同时,该架构非常适合上图中的原始数据雷达,因为通信接口包含了四条数据线,正好与接收器输出接口一一对应。此外,通讯接口的带宽也与 1-1.5 Gbit/s 相匹配。


雷达传感器的分块还简化了视频的数据融合,雷达和未来的激光雷达数据也能受益,因为它们能使用相同的通讯接口(见下图,MMIC 路线图)。


MMIC 的开发需要一个前提条件,那就是专用的高频技术,它能满足需要的频率(24 GHz 或 77 GHz),并提供相应的输出功率。


眼下,SiGe 异性双极晶体管已经用上了高频技术,单片式 130 nm CMOS 处理器也用在了逻辑集成电路上。几年前,ST 就用 BiCMOS9 技术生产了 24 GHz 的 MMIC。同时,用新型 BiCMOS9MW 技术生产的 77/79 GHz 基带,CMOS 结构宽度最低也超过了 130 nm。


未来,雷达系统频段可能会升至 122 GHzST 已经为此准备了 B55 技术。该技术让 SiGe 异性双极晶体管的传输频率能超过 320 GHz。此外,在系统中融合 55 nm CMOS 数字逻辑也成了可能。


除了优化后的 BiCMOS 技术,ST 还能通过自主开发的 FD-SOI 技术完成 SoC 整合。当然,制程仅为 28 nm。下图是 MMIC 的开发路线图,24 GHz 频段的最新产品是 A431 区块,它搭载了 1 台发射机和 3 台接收机。路线图上的 26 GHz 基带零部件则专为美国市场开发。


MMIC 路线图


路线图上的 77/79 GHz 基带零部件中,A770/A772 均处在开发状态。下图中的 A770 MMIC 无线电收发机已经是集成度相当高的解决方案了。


A770 77/79 GHz 无线电收发机架构



眼下,激光雷达已经不是什么新鲜玩意,任何人都能从商店抱一台回家,且精确度能满足一般需要。不过,想让它克服一切环境因素(温度、太阳辐射、黑夜、雨雪天)稳定工作并不容易。此外,车载激光雷达还得能看 300 码(约合 274 米)远。最重要的是,这样的产品必须能以市场可接受的价格和体积进行大规模量产。


激光雷达在工业和军事领域已经应用。不过,它毕竟是一种拥有 360 度全景视角的复杂机械透镜系统。由于单个成本高达数万美元,因此激光雷达 暂时还不适合在汽车产业大规模部署。


如今,汽车市场开始流行两大趋势,它们均采用红外激光雷达系统搭配 MEMS 系统(微型电机系统),不过一种激光雷达是旋转的,另一种是固态的。


在详细介绍这些技术的差别前,我们先来聊聊接收系统的问题。


接收系统的主要任务是认出激光雷达发出和从物体上反射回来的激光束。它们必须极端敏感,甚至能“抓到”单个光子。眼下,最先进的激光雷达 设备已经用上了 SPAD(单光子雪崩二极管)技术。


其实这里用到的原理很简单(见下图),由于那些外形特殊的二极管PN结有偏差,因此一个光子就能引发二极管中的雪崩击穿电流。二极管电流的突然升高会被相应的电路“抓到”,它会输出最新的数字信号以供进一步处理。


SPAD 传感器单元的原理


下图展示了使用 SPAD 传感器单元进行测距的原理,其关键是激光脉冲从发射到反射再到接收整个过程的时间。


LiDAR 测距的原理


下面两张图详细讲述了两种激光雷达的测量方式。


固态 LiDAR 系统


MEMS LiDAR 系统


如果 MEMS 系统用上了微反射镜,那么单独的激光束就会以线型完成运动,随后 SPAD 单元中的光学传感器会对反射的光子进行评估。一套系统想要满足要求,其精度、寿命、适应性和可靠性都必须禁得起考验。同时它还需要用到可更换的零部件。





    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多