分享

机器人伦理的研究进路:自上而下的研究进路

 金元宝财经说 2022-07-28 发布于四川

前言

机器人伦理研究在国际上是一个方兴未艾的研究领域,国内的研究基本上处于引进和译介阶段,缺乏深入研究和进一步的突破。因此,在研究思路、研究方法以及研究进路上并无模板可循。在本章,我们从不同的研究进路出发,试图习找机器人伦理校为恰当的研究进路。以期可以带来一些有意义的成果。

如果间一个工程师,要制造一个具有伦理道德的机器人需要具备哪些伦理知识呢?对于伦理学家而言,他可能会从效果论、道义论和德行伦理学的角度去解答。对工程师而言,这一答案可能仅仅是简单地复制伦理学相关观点。对此我们认为把伦理道德的观念引入工程设计主要指的是:工程师或设计师应该做什么或者不应该做什么。

对于人工智能体道德主体而言,为什么将人性理论化看作是条值得 去走的路呢?其中一个答案是理论提供了理性的解决方案,如果伦理上的原则或规则可以清晰地定义,那么遵循道义做事将会变成简单地按规则行事。人工智能体作为道德主体所要做的就是计算和判断-个行动是否合乎道义规则。这就需要建立一个自上而下的道义系统。

建立自上而下的道义系统

伦理学家并不认为建立-个自上而下的道义系统是一个解决智能体决策问题的可行性方案。因为人类没有能力对所有涉及到的方面进行考虑和计算。不过,机器能做的比人类更好是哲学家们的梦想。菜布尼兹曾在1647年设计了一个计算机器,梦想在任何情况下都能够做出道义上最好的决策。

尽管从莱布尼兹那时起到现在,计算机技术已经有了长足的进步,但我们还是认为自上而下的理论对于这个梦想的实现还存在一定的障碍。接下来我们将说明:以道义规则作为决定行为的运算法则其前途是灰暗的。虽然如此,人们将自上面下的进路作为行动的参考还是具有-定合理性的,因为人工智能体作为道德主体的设计者需要获得对于人类品性的些描述。

在大多数情况下,以自上而下的方式了解人性就是找出一系列可以转化成算法的规则。自上而下的道义系统有很多种来源,例如宗教、哲学和文学。它们中还包括黄金法则、十大律令、后果主义者或功利主义的道义、康德的绝对命令、法律和职业操守,机器人三大定律等。

在其中的一些思维方式中,规则只是所有需要明确禁止或规定的集合。这是“戒律"模式的道德,除了扎根在犹太人的传统之中,也出现在阿西莫夫三大定悼之中。对"戒律"模式的挑战足当规则互相冲夹时该怎么做:是谓自进一步的 原则或规则用来解决这种冲突?阿西莫夫的方法是优先规则。这样第一-定律总 是战胜了第二个,第二个定律总是战胜了第三。不幸的是,对于机器人专家而言(如果为小说作家),阿西莫夫的前两个律则都足以使自己陷入矛盾中。

为了解决冲突问题,一些哲学家试图找到更一般的或抽象的原则,这样更加具体或特殊的原则就可以派生出来。当然也有一些哲学家拒绝这么做,他们认为伦理规则应该是为决策过程提供意见的,同时认为自上而下的规则有助于指导决策并对某些批判进行专业评估。

无论道德原则被理解为规则或启发法,还是包括与直观思想实验(如电车实验)相对的主流道德哲学,都可以成为伦理学家在道德上判断对错的一-项长期探究。自上而下的道德理论是为了抽获道德判断的本质,而当自上而下的理论给出了“错误"的答案时(根据些专家的直觉),它就会受到挑战。但这些直觉普遍有效吗长期以来,很多文化评论家将-些西方或男性为中心的偏见加入到西方哲学家的直觉中,就此,新生代的“实验哲学家”则把这种偏见当成了一种普遍的文化现象。.

在此,我们的重点是探索自上而下理论的计算要求。那么这一算法是否与相关任务契合?如果是否定的,那么人工智能体伦理道德的建构如何实现?人们很少从计算的角度评价白上而下的理论,但我们认为,它有潜力释错哲学伦理学的本质。

功利主义和义务论是伦理学领域的两大理论。功利主义者声称道德最终是为了最大程度的增大世界的“效用”(utility) "(一种衡量快乐或幸福的标准)。最好的行动(或最好可循的特定规街)是那些最大化增加“效用”(urility)的行动。因为功利主义者关心行动的后果,所以他们的观点是一种后果论。另一个后果论的理论是利己主义,唧只考虑行动对个人的影响。然而,对于设计具有自主道德决策能力的智能体来说,利己主义可能无法与后果论相竞争。因为目前在人工系统的研究中,我们对后果论的关注可能要更多。

功利主义在“行为功利主义(-个单独的行为都被评估)和“规则功利主义(根据行为的趋势变化来增加总的利益的一种规则)存在不同。尽管许多观点我们可以用这两种形式进行表述,但我们还是以行为功利主义为始展开讨论。功利主义人工智能体道德主体面临沉重的计算要求,因为衡量行为的道德指标,他们需要对很多选择(甚至是全郁选择)的结果进行计算。从智能体主体道德的角度看,问题是如何对行为道德的最大化进行选择。对于设计人工系统的设计师来说,要解决的问题是如何构建机制,以使得它们可以对后果做出必要的决定。从一个大的框架来看道德原则,我们认为职责是伦理道德的核心。

在这个框架中,个人的权利-般理解为职责的另一面。职責和权利都在道义论(deontology)之下。一般来说,任何范围内的职责或权利都有可能遭受与另-个范围内的戒律相冲突的问题。例如,告诉别人真相的责任可能会与尊重另个人的隐私的责任发生冲突。解决这些问题的一个方法是提交初步的职资到一个更高的原则,这就是康德的信仰。例如,合乎道德的行为可能是基于一个原则,一个绝对命令,可以用来保证逻辑上的一致性。

对于以义务论为伦理设计的人工主体,明确了规则(或如何确定规则)并且可以将这些规则应用到特定的挑战之中是最重要的。一个智能体主体,如果可以在特殊规则的有效性上反应清晰明了,那么这个智能体便是适用的,但就目前而言这还是一-个梦想。秉承义务论标准的机器人设计师需要找到方法,用来确保规则在当前的形势要求下可以应用于实践。并能够在规则相冲突的情况下拟定一个总体架构。

功利论与道义论的方法对于特定的计算问题有一定的积极意义,同时它们对于一些常见间题也发挥了作用:即是否有计算机(或人类)能收集和比较所有为了使理论完全应用于实际所必须的信息。对于后果论来说,这问题尤其尖锐,因为在空间或时间上,任何行动后果的实质都是无界的。

结语

对于道德的讨论不仅仅局限于权利(义务论)和利益(效用),也常常表现在事物的特性上。这可以追溯到亚里土多德和现在被称为美德伦理"的理论。美德伦理学家并不关注那些仅以结果作为标准的行为,或者是在相同情况下的权利和责任。相反,美德伦理家坚持认为道德高尚的行为是高尚品格的产物。而高尚品格是对特定美德的诠释。美德伦理是否可以作为其补充,这是-一个有待深入的问题。

    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多