分享

回答两个自动驾驶问题:5级分级真的合理吗,为什么要关注伦理?

 cheyunwang 2020-09-11
 
保证不是老生常谈。

如果科技是朵花,人的需求就是土壤。脱离了土壤,花就会枯萎凋落。技术党容易犯一个错误:他们想用自动驾驶解放人类驾驶员,却忘了车最终还是要为人类服务的。

自动驾驶让汽车行业开始认真思考“人”与“车”的关系。今天我们就来回答两个与“人”相关的问题:我们现在一直用的自动驾驶NHTSA4级和SAE5级分级,真的符合人类思维结构吗?比如“电车难题”等伦理哲学问题,放在技术成熟之前来谈真的为时过早吗?

以下内容保证不是老生常谈。

我们为什么要对自动驾驶分级?

换个角度谈自动驾驶分级

无论是NHTSA还是SAE,都是从车辆工程学角度出发,去定义自动驾驶并对它分级的。因此在结合人工智能的时候,就会存在分级不准确、界限模糊的情况。

比如SAE的会议上都在讨论,需不需要L3级(有条件自动化)自动驾驶?L3级自动驾驶允许驾驶员双眼和手脚脱离,放弃车辆控制,当系统报警时再介入操控汽车。但实际情况是,人在双眼离开的情况下,意识也是离开的,从报警到接入耗时会非常长。Waymo未拆分前请内部员工测试,相关人员从报警到接管,需要12秒到28分钟,福特甚至出现过测试工程师睡着的情况。

人类越是信任自动驾驶系统,就越是注意力不集中。这就促使L3级自动驾驶整个系统的开发必须做好足够的安全性,结果就成为了L4级。因此,L3和L4在整个系统架构、底层系统冗余设计以及鲁棒性上要求一致,这就造成了分类不准确和界限模糊的情况。

我们会发现,从风险控制和技术区隔上来看,L3无论是对工程师还是对驾驶员而言,都是个尴尬的存在。

讨论需不需要L3级自动驾驶只是个引子,本质上我们在谈换一种角度理解自动驾驶分级。自动驾驶不光诞生于自汽车工业,同时也是人工智能的产物。从人工智能角度来回答这个问题,将更加符合实际情况,因为人工智能是从人类自身的思维结构去理解机器的。

人类本身的思维结构可分为本能和智能两个部分。本能是本身固有的能力,如膝跳反射,被开水汤了要缩手,饿了要找吃的,遇到危险迅速躲开;智能是对事物的智慧理解、分析和判断,这个需要有学习和认知的过程。

这个分类也可以套用到自动驾驶分级上。本能范畴的自动驾驶负责最基本的安全功能,包括自动巡航、自动紧急刹车、车道自动保持、限制跟车距离等。智能范畴需要考虑交通安全法(雾天限速,不能闯红灯等等)和安全驾驶技能(左转转大弯、右转转小弯更安全,并线时小角度切入车道更安全)。一句话来概括,本能负责不撞车,智能负责将车开的更好。

这种分类有一个好处,就是能让我们看清主机厂和人工智能公司之间的边界,更加有利于双方的社会化分工和整合。从最初的积累来看,传统汽车企业在本能部分更有优势,人工智能公司更擅长智能的范畴。当然不排除双方越过界限拓展业务的情况,产业链上不同公司的分工,都还在尝试和摸索阶段。

在这个分类基础上,自动驾驶汽车在设计时要牢记一个原则:自动驾驶整个系统的优先级里,本能必须最高,绝对不能用智能的相关技术手段去覆盖本能的功能和场景。如果翻译一下,就是绝不能用深度学习做AEB。道理也很简单——关键时刻只有本能才能救你一命。因为智能解决的开好车问题,主要运用的人工智能技术会存在黑箱问题,而且构建的是一个复杂系统,鲁棒性要差一些,bug也多一些。而本能的代码更多会写到MCU中,决策更直接,所以相对安全稳定。

因此我们可以发现,从人的思维结构出发,不是从车辆工程的角度出发的自动驾驶分级,更加朴素,不仅适用于汽车行业,也适用于互联网等新兴加入领域的企业。理解这项新技术的受众将是整个社会大众。

现在谈伦理问题还太早吗?

自动驾驶汽车是社会化管理的产品,必须跳出技术和产品本身,考虑到相关伦理道德和立法的问题,削弱其带来的风险和负面影响。而且自动驾驶的伦理问题中,有不少是和技术有关,并且要摆在技术之前思考的。我们要从以下五个方面做好准备:

1、必须充分考虑全社会的利益

自动驾驶汽车最终目标是提供智慧出行服务的商业模式,颠覆传统的汽车制造和销售体系,颠覆传统的出行和租赁市场。变革期间会产生相关人员收入降低甚至是转业和失业问题,典型的就是自动驾驶汽车带来的人力成本减少。不能光关注技术和市场的发展,应该重点分析对就业结构、社会政治产生的变化。既应该保护社会价值促进创新,也要加强监管降低对社会产生的不利影响。而且相关产品设计和应用的同时,也必须要充分考虑弱势群体(老人、儿童、残疾人)的需求。

2、明确问责机制

业内经常讨论的“电车难题”,AI算法是无法解决的,而是要交给使用者抉择,在使用自动驾驶汽车之前做完电车难题的选择。

自动驾驶汽车是个非常复杂的系统工程,应该明确系统开发商,制造商,使用者之间的权利和义务。业内经常讨论的“电车难题”涉及伦理道德的问题,目前AI的算法根本无法处理此类问题(如果哪天AI能主观处理电车难题,人类就得考虑给它人权了)。

这种选择目前也只能交给每个使用者,在使用自动驾驶汽车之前做完电车难题的选择:两个骑摩托车的人一个戴头盔一个不戴头盔,一个老人一个儿童,逼不得已时撞向哪个?选择自己撞墙拯救他人,还是保护自己?车辆碰撞躲避时选择撞击驾驶员位置的你自己还是副驾上的乘客?如果这其中有个人是你的亲人呢,又将如何选择?自动驾驶汽车车系统开发和制造商,在产品有缺陷产生人员伤亡的情况下除了保险赔付是否应该承担连带的责任?

以上问题除了要遵循现有的法规标准外,还得另外建立新的法规标准,明确责任机制。相关系统开发商,制造商,使用者应当建立“黑匣子”,记录相关数据。

3、提高透明性和完善独立监督

神经系统网络可以自行完成物体分类,但我们并不能直接把神经网络拆分后理解决策过程。如果系统出现故障,也就很难解释出现了什么问题,因此说深度神经网络存在“黑箱“问题。

目前,自动驾驶技术广泛应用的深度学习技术,其自身是个“黑箱子”,算法过程中的不透明和不可解释性会导致相关使用者的疑虑。深度学习本身的应用是通过大量的数据处理和训练出来的,更加复杂的是怎么能证明其是足够的安全。尤其是交通场景中的各种变化,未被训练过的场景工况是否能正确处理。

为了打消疑虑,提高社会信任度,自动驾驶本能阶段需要应用能被数学公式证明的并经过大量测试验证的算法。当本能已经足够安全的前提下,智能阶段再应用深度学习是比较可行的方法。

国内自动驾驶产业链缺乏独立完善的监督机构。国土幅员辽阔经纬度跨度大,各地自然环境,道路基础设施也千差万别,这就导致了很难去统一。

各地的智能网联示范区去实施监督成为现实可行的选择。未来智能网联示范区除了提供测试服务外还要提供测试验证的考核机制,不给现阶段L1,L2自动驾驶测试还有ISO等相关标准可以参考,L3到L5级自动驾驶如何去测试和评估根本就无标准可循。

4、隐私和数据管理 

自动驾驶汽车的应用会产生大量隐私性的数据,用户画像、家庭工作地址、出行规律等。对掌握大量数据的公司而言,相关数据的应用应充要分考虑用户自身的利益、控制和知情权。应多利用相关次级抽样,噪声注入的技术手段使个人信息模糊化。

自动驾驶的整个开发和设计过程中,十分重视数据或算法,就很容易因为包容性不足产生歧视性问题。我们尤其要防范服务提供方利用自身的数据的优势差别化对待消费者,过度动态调价(例如网约车的高峰调价),甚至人为制造供需矛盾提高服务价格的行为。

5、相关公司和从业者的伦理道德素养

自动驾驶对从业者的职业道德提出了非常高的要求。

目前全世界范围内对自动驾驶的研究大量都是技术和产业结构方面,极其缺乏社会伦理和法律方面的研究。由于人性的不完美也会导致产品的缺陷和违背伦理的可能性,我们不能将人性的恶带入到影响到未来社会发展和结构的产品中。

尤其要防范相关公司和从业者在自动驾驶汽车的设计和开发中过度考虑商业利益,不听取利益相关方表达的诉求和建议的情况,面对产品可靠性和商业利益的选择时,需要提高从业者主人翁意识和责任心,尊重伦理和价值观。

车云小结

一个新型事物的发展首先是认知和伦理的问题。问题的答案是企业的实操手册,并且会最终影响产品和整个行业乃至社会形态。一个面向大众的观点,才能提高全社会对自动驾驶汽车的信任度,让更多行业参与进来发生改变,这时候自动驾驶汽车才有了真正落地的前提条件。

车云推荐

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多