分享

智能座舱发展阶段和系统架构

 一束光线 2025-05-06

座舱一词由飞机和船舶行业引进而来,“舱”指飞机或船的内部空间,舱体则可分为驾驶舱、客舱、货舱等。而汽车座舱可以简单理解为传统的驾驶舱和客舱的组合,也就是车内的驾驶和乘坐空间。智能座舱则是随着智能汽车而产生的,是指配备了智能化和网联化的车载产品,从而可以与人、路、车本身进行智能交互的座舱,是人车关系从工具向伙伴演进的重要纽带和关键节点[1]
现阶段智能座舱的发展主要涵盖座舱内饰和座舱电子领域的创新与协同,从消费者应用场景角度出发而构建的人机交互体系,通过人机界面的设计与技术创新,提供更加智能、便捷和舒适的用户体验。未来智能座舱的形态将是“智能移动空间”,在5G和车联网广泛应用普及的前提下,汽车座舱将摆脱仅仅局限于“驾驶”这一单一场景,演变为集“家居、娱乐、工作、社交”为一体的移动空间。
(一)智能座舱发展阶段
汽车座舱由传统驾驶舱朝着智能化、数字化方向发展,根据汽车自动驾驶分级,智能座舱的发展大致可分为电子座舱、智能助理、人机共驾,以及智能移动空间4个阶段,当前正处于由智能助理向人机共驾阶段发展[2]
1.电子座舱阶段
电子座舱阶段起步于车载信息娱乐系统,最早可追溯1924年的车载收音机;随后,2001年宝马引入中央显示屏,中央显示屏开始进入汽车座舱;然后,2006美国开放了民用化的GPS系统,基于触屏显示的车载功能成为推动座舱电子化发展的重要动力;此后,2018年来自伟世通和安波福两个主流的电子座舱域控制器方案开始推向市场。
本阶段智能座舱的进展主要集中在基础技术层面,通过将汽车的电子信息系统逐步整合,组成“电子座舱域”,并形成系统分层,决定了汽车新的软硬件定义方法。在这个阶段,传统分散的座舱体系逐步发展融合成为一个集合整体,衍生出后续的多屏联动、多屏驾驶等复杂座舱功能,这也催生出座舱域控制器这种域集中式的计算平台。硬件的整合在成本和技术两个方面体现出价值。首先,集成化的硬件方案可以减少功能复杂化后带来的座舱硬件成本上升。其次,集中式的方案可以统一通信架构,降低设计难度,并提高技术效率。
2.智能助理阶段
在智能助理阶段,生物识别技术和人机交互技术的加入推动了驾驶员监控设备的迭代和车辆内部感知能力的增强。在这个阶段,车辆设置了独立的感知层并升级了交互功能,从而使车辆的环境感知、决策和控制能力逐渐增强。
首先,独立感知层的形成使车辆能够“感知”并“理解”驾驶员。智能座舱通过独立感知层,可以获取车内的视觉(光学)数据、语音(声学)数据以及来自车辆底盘和车身的信息,例如方向盘、制动踏板、油门踏板、档位和安全带等,然后再通过生物识别技术,如人脸识别和语音识别,综合判断驾乘人的生理状态和行为状态,实现对驾驶员的“理解”。并根据具体场景,提供“车对人”的主动交互,减轻驾驶员在驾驶过程中“人对车”的负担,并有效改善交互体验。
其次,交互方式得到了升级,车内的交互手段不再局限于传统的“物理按键交互”(硬开关),而是发展到了多种交互方式并存的状态,包括“触屏交互”(软开关)、“语音交互”和“手势交互”等。尤其是随着自动驾驶对车内视觉感知要求的不断提高,基于视觉的驾驶员监控技术在车舱内得到更加快速的落地应用,而这种技术的普及,大大增强了智能汽车的感知能力,并推动了智能助理的前身——多模交互技术在智能座舱中的落地实现。
3.人机共驾阶段
此阶段,随着电子电气架构由采用分布式架构的ECU向域控制器过渡,自动驾驶等级的提高以及车载信息娱乐系统的算力增强,ADAS也得到增强。在这些关键因素驱动下,车辆可在上车-行驶-下车的整个用车周期中,主动感知驾乘人需求,并为驾乘人主动提供个性化、场景化的服务。在某些情况下,系统通过对车内外传感器收集的数据进行分析,自动激活车辆的功能,实现车辆初步的自主或半自主决策。智能座舱还可对大量的车外道路环境信息进行筛选,并结合车内指令(如目的地选择)进行优先级判定,并将最重要的信息呈现给驾驶员。此外,智能座舱还能基于车内感知系统(Intelligent Video Surveillance ,IVS),监测驾驶员健康状况与行为,并给予相应的提醒。
同时,随着座舱域、动力域和底盘域的相互融合,达到足够功能安全等级后,座舱控制域可以直接调用自动驾驶域的驾驶服务,进行车辆的驾驶控制,实现人机共驾新模式。经过对座舱域系统的系统架构和软硬件的安全升级,智能助理将弥补“驾驶控制”这个最后的短板,朝着成为“全能智能助理”的目标迈进。
在人机共驾阶段,语音控制和手势控制技术实现了突破,车内感知和车外感知的结合使得智能汽车实现了车辆感知精细化,这一阶段的特点是将座舱与自动驾驶技术高度集成,弱化了对驾驶员的驾驶要求。
4.智能移动空间阶段
智能移动空间阶段也称作第三生活空间阶段,该阶段座舱与自动驾驶技术高度集成,弱化了对驾驶员的驾驶要求,而是以用户为中心,使用场景将更生活化、丰富化,具备娱乐、生活、信息、互联等多方位场景化功能,为用户提供更加随心、愉悦、便捷的沉浸式体验。
在这个阶段,将基于车辆位置,融合信息、娱乐、订餐、互联等功能,为消费者提供更加便捷的体验,包括但不限于提供出行规划、主动订餐、智能内容推送、影音娱乐、自动停车+充电+找车、自动付费等服务,在这种环境下,驾乘人员在车上就可以体验线上线下的无缝联动,享受便利的服务。此时,车辆被视为“第三生活空间”,带有独特的移动属性,它不仅是一个交通工具,还是一个具有独特功能的生活空间,使消费者能够在移动中享受与传统生活场所相似的便捷和舒适,为消费者带来更加便利、愉悦的体验,使他们能够在移动的同时完成各种任务和享受多样化的娱乐与生活体验。
目前智能座舱正处于由智能助理阶段向人机共驾阶段发展。在硬件方面,座舱内部的实体按键被简化,大屏化、多屏化趋势显著;在软件方面,语音交互技术被广泛应用,人脸识别技术和手势识别技术也被尝试,座舱所能实现的功能趋于多样化[3]。随着自动驾驶技术的不断进步,智能座舱将不断优化现有功能,确保用户数据安全以及座舱布局更人性化和合理化,为驾驶员和乘客带来更智能、便捷和个性化的驾乘体验。
智能座舱系统架构
智能座舱的系统架构主要由底层硬件层、中间软件层和上层服务层构成[4],如图1所示。
图片
1 智能座舱系统架构图
底层为硬件层,包括座舱系统所需的硬件组件,如摄像头、麦克风阵列、内嵌式存储器(磁盘)(Embedded Multi Media Card,EMMC)、内存 (Double Data Rate SDRAM,DDR SDRAM)等,这些硬件组件负责采集、处理和存储座舱系统所需的数据。
中间层为座舱系统的核心部分,包含系统软件层和功能软件层。系统软件层包括操作驾驶域系统驱动(Linux SPI)和座舱域系统驱动(Android SPI),这些系统驱动负责底层硬件的管理和控制,以及与上层系统的交互。功能软件层包括感知软件、控制模型、决策中心、车机服务,其中感知软件包括与智能驾驶公用部分的感知软件和智能座舱自身域的感知软件等,用于从车辆和座舱的传感器数据中提取、分析和处理有效信息;控制模型则基于感知的信息执行相应的控制策略;决策中心可通过感知SDK建立场景SDK进而开展对应的智能决策;车机服务包括系统控制、车身控制、数据服务、OTA、底盘状态及车身数据等内容。
上层为服务层,这一层提供了与用户交互和服务的接口,包含启用摄像头人脸识别、语音识别、数据服务、场景网关、账号鉴权功能等,这些服务通过与用户的互动,提供个性化和智能化的座舱体验。
右侧支撑层是支撑软件的快速开发工具,也称成长平台,它提供了开发、测试、部署和管理座舱系统的工具和环境,用于加速软件的开发和迭代。
这种系统架构使得智能座舱能够有效集成和管理座舱内各种硬件设备和软件功能,并提供丰富的体验和服务选项。同时,底层硬件、中间层软件和上层服务之间的分层关系也使得系统的维护和升级更加灵活。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多