分享

人工智能对道德伦理问题提出重大挑战

 育则维善余言 2019-06-25

来源:36kr

概要:人工智能如今无处不在,我们生活的各个方面都与人工智能有着或多或少的联系。

人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言、甚至帮助确诊等。

据国外媒体报道,人工智能如今无处不在。从决定购买哪本书、订哪一班航班,到申请工作、获取银行贷款,我们生活的各个方面都与人工智能有着或多或少的联系。

  如今,这类事情主要由复杂的软件系统做决定。人工智能在过去几年中取得了巨大进展,有望从许多方面改善我们的生活。

  几年来,人工智能的崛起已成了必然趋势。人工智能初创公司收到了大笔投资。许多现有的科技公司,如亚马逊、Facebook和微软等巨头,都已创建了研究实验室。可以毫不夸张地说,软件如今就代表着“人工智能”。

  有些人预言,人工智能将掀起一场比因特网更加猛烈的变革。而至于机器带来的迅速变化将对人类产生怎样的影响,几乎所有科技人员都将道德伦理视为关注重点。

  对于谷歌研究带头人和机器学习的领军人物皮特·诺维格(Peter Norvig)而言,虽然由数据驱动的人工智能技术近期取得了一系列成功,但关键问题在于,我们必须弄清如何使这些新系统造福整个社会,而不仅是该系统的控制者。“人工智能可高效开展实际任务,如给照片贴标签、理解口头和书面自然语言、甚至帮助确诊等。”他指出,“而我们必须确保所有人都能从中受益。”

  最大的问题在于,这些软件往往极为复杂,无法参透人工智能系统采取某一行动的原因。如今的人工智能以机器学习技术为基础,导致我们无法透过表面、看个究竟。因此我们只能姑且信任它们。但我们必须找出新方法,有效监控和审查人工智能参与的系统。

  哈佛法学院网络法教授乔纳森·齐特林(Jonathan Zittrain)认为,随着计算机系统日趋复杂,人们或许将难以对人工智能系统进行密切监视。“随着我们的计算机系统越来越复杂、联系越来越紧密,人类的自主控制权也不断减少,这使我很担心。”他表示,“如果我们‘放手不管,忘到脑后”,不考虑道德伦理问题,计算机系统的演化或许会令我们懊悔不已。”

  其他人也表达了同样的忧虑。“我们如何判断这些系统是否安全呢?”美国杜克大学人类与自主实验室主管米西·康明斯(Missy Cummings)指出。她曾是美国海军首批战斗机飞行员之一,如今是一名无人机专家。

  人工智能需要受到监视,但具体做法尚不清楚。“目前我们还未就监视方法达成统一意见,”康明斯表示,“在缺乏系统测试的行业标准的情况下,这些技术很难得到大规模应用。”

随着人工智能的发展,机器人可以胜任更加复杂的工作。例如,日本的一家商店采用了机器人“导购”。

  但当今世界日新月异,监管机构往往落后一步。在刑事司法系统和医疗保健等重要领域,许多公司已经开始探索人工智能在假释和诊断等问题上的决策能力。但如果将决策权交予机器,我们就面临着失控的风险——这些系统真能在每起案例中做出正确的判断吗?

  微软研发部门的主要研究员丹娜·博伊德(Danah Boyd)称,我们必须严肃考虑此类系统附含的价值,还要确定最终担责方。“监管机构、公民社会和社会理论学家都强力要求这些技术公平公正、符合道义,但这些理念仍然含糊不清。”

  道德问题对就业影响颇深。随着人工智能的发展,机器人可以胜任更加复杂的工作,能够取代越来越多的人类工人。例如,中国富士康集团已经宣布将用机器人取代六万名工厂工人。福特汽车在德国科隆的工厂也启用了机器人,与人类工人并肩工作。

  此外,如果不断提升的自动化水平对就业产生了重大冲击,便会影响人类心理健康。“人生的意义来自三个方面:有意义的人际关系,充满激情的兴趣爱好、以及有意义的工作。”美国前总统奥巴马医疗顾问、生物伦理学家伊齐基尔·伊曼努尔(Ezekiel Emanuel)指出,“有意义的工作是自我认同感的重要组成部分。”他还表示,在工厂倒闭率和员工失业率较高的地区,居民自杀、滥用药物和患抑郁症的概率也较高。

  因此,社会需要更多的伦理学家。“公司当然会跟随市场潮流行事,这不是坏事,但我们不能指望他们负伦理责任。”麻省理工学院法律与伦理专家凯特·达尔林(Kate Darling)指出,“我们应当将监管措施落实到位。每当有新技术出现,我们都会开展这一讨论,研究应对策略。”

许多工厂中,机器人已经开始与人类并肩工作。有些人认为这会使工人的心理健康受到影响。

达尔林指出,谷歌等许多知名公司已经成立了伦理委员会,监控人工智能技术的研发和部署。但这一做法还应进一步普及。“我们无意阻止创新,但眼下也许我们就该成立这样的机构。”

  有关谷歌伦理委员会的成员和工作细节,我们还知之甚少。但去年九月,Facebook、谷歌和亚马逊达成合作,旨在为人工智能为安全和隐私造成的挑战提出解决方案。一家名为OpenAI的组织致力于研发和推广造福全民的开源人工智能系统。“机器学习必须得到广泛研究,并通过公开出版物和开源代码传播,这样我们才能实现福利共享。”谷歌研究员诺维格指出。

  为制定行业与伦理标准、充分了解当前面临的风险,需要伦理学家、科技人员和企业领导人共同参与。这一问题涉及如何驾驭人工智能、使人类更加擅长自己最拿手的领域。“我们更应关注如何利用相应技术帮助人类思考和决策、而非将人类取而代之。”齐特林指出。

人工智能的道德代码应该如何编写?

如果预设代码对AI所有者不利会怎样呢?

人工智能正在以几何级数的速度在发展,虽然对我们生活产生大规模深远影响的AI技术尚未正式部署,但是提前对AI引发的社会与伦理问题进行探讨是必要的。不幸的是,此前公众对人工智能产生的道德伦理问题并没有太多太广泛的讨论。David Newhoff总结了最近以电车难题为标志的AI伦理问题的相关事件,并分析了不同思路的问题。从目前来看,无论是功利主义还是道德决定论,似乎都解决不了AI的道德代码问题,也许我们需要道德虚无主义?让机器像人一样在千钧一发的情况下做出基于直觉的决定?

随着人工智能从科幻小说变成大众科学,领先的技术学家与科学家正在向自己提出如何编写道德代码的问题。报道最广泛的道德困境是无人车与所谓的电车难题。这个假想挑战的内容大致是:一个疯子把五个无辜的人绑在电车轨道上。一辆失控的电车朝他们驶来,并且片刻后就要碾压到他们。幸运的是,你可以拉一个拉杆,让电车开到另一条轨道上。然而问题在于,那个疯子在另一个电车轨道上也绑了一个人。考虑以上状况,你是否应拉杆?

这个问题后来被转移到了无人车领域,问的是一辆车的AI如何做出千钧一发、生死攸关的决定。这个问题不仅是技术或者道德问题,同样也很富有哲理性。因为我们在现代发达社会应对悲剧的方式,或者对潜在悲剧的预期,通常并没有包含该AI挑战所蕴含的这类道德决定论。

许多人是靠信仰来应对悲剧事故。这种信念认为,凡是计划必有神性,即便这个计划无法知晓。那些没有宗教信仰的人对计划则不抱信念,而是与这个事实和解:即混乱和人的不可靠是会制造出可怕后果的。无论是哪种情况,大家对不确定性都有一定程度的安慰感——不是对减少损失痛苦本身感到安慰,而是因为这让我们能够对可怕事件合理化,或者为出门不会活在恐惧之中感到安慰。这种不确定性加上可能性,以及保持着控制手段,让我们可以自信地步入自己的车子开车到处转而不怕被干掉。去掉一个因素,比方说控制手段,可能就可以解释为什么更多人坐飞机要比坐车更焦虑,尽管统计数据表明其实他们应该反过来(汽车事故率比飞机高)。

就这一点而言,当预见不到的事情比如刹车失灵、路面突遇障碍物等发生时——人类司机的瞬时反应无疑更多是偶然性的结果而不是任何类型的理性决策。哪怕是在相对常见的例子里面,司机被教导的也是永远都不要为了避免横闯马路的野生动物受伤害而打急转弯,以免增加被对向来车撞上或者自己撞树的风险。但是那种避免碰撞的直觉是很强烈的,而且一旦突现出现的是阿猫阿狗是还会更加强烈。此处的要点是无论结果如何——不管是松鼠被压扁还是几位乘客死亡,包括司机反应在内的这一系列的事件,都要归咎于一定程度的不确定性,而在这不确定性当中就有许多我们哲学上的应对机制。

但是当人类预先确定特定道德困境的结果,并且把它编码进机器里面,授权机器做出这些决定时会发生什么呢?在上面提到的简单例子里面,松鼠被杀死了而所有的人都活下来了,但如果那瞬间的决定要么导致乘客死亡要么导致横穿马路的母子身亡呢?2016年夏,MIT的研究人员推出了一个名为道德机器的网站提出的正是这类问题,在各种假设交通场景下,用户必须做出一系列的双输决定,也就是不管怎么决策都会有人死。任何人都可以进行“测试”,测试完之后网站就会公布你的“分数”以及与其他人所做道德决策的对比情况。

当然,从原则上来说,道德机器测试展现给用户的信息是汽车AI永远也无法知道的——比如其中一些潜在受害者是犯罪分子。但在更有可能的场景下,年龄是某些场景的因素之一,这个条件我觉得会更加可信一些——汽车是有可能知道自己搭载的是一堆七十多岁的夫妇,因此决定杀死他们而不是一个年轻家庭会显得更有道德一点。而那对老夫妇自己可能也会做出这个无私的决定,但在人类操作者在面临比自己思考还要快的紧急情况时,这类算计不会真正发生。

这类道德机器测试的可怕之处在于,它隐含意味着用于让AI做出道德决定的数据集理论上可不仅仅包括数字(比方说机器可以简单地把拯救数多于杀死数设为默认)。年龄也可以成为因素,但是对社会的净值或者相对“价值”呢?AI可以为了拯救一位物理学家或者外科医生或者一个卡戴珊而毁了整整一校车孩子的生命吗?种族或者性别方面呢?这然后又会引发这些预设定决策是大家都知道的还是商业秘密的问题,这两个都会引发巨大且空前的道德困境。

在这一点上,几天前出现的一篇文章告诉我们说,奔驰的下一代无人车将会被设定为无论任何情况下都拯救乘客。一方面,这属于一个算法派生,这种派生的主题是特权阶级在任何其他生命面前都有一条优先通行车道。但也有说法认为奔驰这样做事未来避免陷进对AI进行道德编程的乌烟瘴气里面。可能如果法律要求所有车辆默认都要接受一个指令,比如拯救乘客,这接近于人类司机的直觉但易犯错的反应,同时仍然允许不确定性扮演角色,从而免除了工程师“扮演上帝”的责任。至少在AI具备自我意识并开始自行做出此类决定前是这样。

毕竟,一旦去掉偶然性和放弃权利,把生死决策交给机器之后,很难不会注意到人为道德决定论的反乌托邦启示。当我们去掉了偶然性、命运、上帝旨意等所提供的这些心理缓冲之后,发生了悲剧事故自然就要求做出解释,因此本能上就要求追责。这当然会引发一些伴生的问题,比如谁不可避免地要玩弄系统,谁会对自己的车辆进行“越狱”,以便推翻有可能对自己不利的代码,确保自己成为事故的幸存者。突然之间,这把抱怨摆弄技术资产“权利”的意志论者推到了理论上“牺牲小我”观点的对立面。

AI道德问题还成为了导致得出无人车的私人产权也许不会持久结论的又一个因素。就理性而言,要想让AI负责所有人的往来穿梭,各个AI系统就必须站在同一水平线上,这样才能汽车去到哪里都讲道德。从这一点来说,奔驰或Tesla的模式只不过是公共系统或者高度管制化系统的垫脚石罢了。但是这样的结果不会是制造商或者投资这一未来的领先数据公司想要的。

这就是我同意奥巴马总统的理由之一。他最近在跟伊藤穰一(Joi Ito ,MIT媒体实验室主管)联合接受《连线》杂志Scott Dadich采访时表示,公共基金在AI开发中扮演角色是必不可少的。“......我们必须理解的事情之一是,如果我们希望这些突破性技术体现出多元化社区的价值,那么政府基金就必须成为其中一部分。如果政府没有参与提供资金支持,那么伊藤穰一提出的所有这些技术价值问题最终可能都会失去,或者至少没有经过适当的辩证。”

当然,奥巴马所指的AI并不仅限于车辆,他的观点阐述的很好。AI的科幻未来已经到来。但用什么样的价值观来推动决策的问题在公开辩论当中几乎很少被提及。与此同时,企业用“颠覆”的修辞已经赦免了隐私和知识产权侵权方面的许多原罪。或者就像Sam Kriss在《大西洋》的文章中的出色概括那样:“硅谷解决的是此前并不存在的问题,硅谷文化对‘颠覆’的执着已经达到了病态的地步。技术产品不再感觉像是提供给公众的东西,而像是强加于人:伟大的愿景家观察大家做某件事情的方式,然后决定以一己之力去改变它。”

今年9月底的时候,美国的技术巨头——IBM、苹果、Amazon、微软、Facebook以及Google的计算机科学家联合成立了一个新联盟,名字叫做“造福社会与公众的人工智能合作伙伴关系”。该联盟的目标之一是建立AI领域最佳实践的规范标准,其中就包括了类似无人车电车难题这样的伦理问题的处理。但是这些技术研发体现出公共利益是必不可少的,虽然我本人可能比较挑刺奥巴马政府在许多公共领域过于Google化,但是我相信总统本人对如何开发出有道德的AI是有着深刻思考的。从目前的研发和投资力度来看,我们唯有希望未来的领导人仍然能继续推进这类话题的深入了。

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多