分享

人工智能伦理:国际学术热点分析

 遛猫的鱼 2024-05-22 发布于广东

人工智能带来技术红利的同时,也引发人们的恐惧和担忧。目前,以深度学习为代表的人工智能已超出传统伦理的约束,但是人工智能要完全符合伦理的和向善的标准还比较困难,因此需要以伦理建设和伦理引导等方式降低其负面影响。为此,从不同层面论述国外学者关于人工智能伦理问题的研究进展。

图片

一、人工智能伦理的理论层面问题

(一)效用性问题

后果论作为功利主义的现代表现形式,强调符合伦理的行为能减少人类痛苦、实现人的最大幸福。有学者认为,后果论最符合人工智能的运行方式和嵌入伦理规则。故后果论视野中的人工智能可能比人类更遵守准则:人类受情绪或直觉的影响可能会犯错误,而人工智能则不受影响。但是,后果论局限于追求功利最大化,未抓住伦理直觉的全部。并且,功效最大化可能意味着其他方面的受损。因此,后果论的最大问题是:人工智能是否会带来幸福;在多大程度上能够带来最大幸福;这样的幸福是否会产生其他破坏等。

(二)适配性问题

以义务论为基础的人工智能伦理为构建自主的伦理智能系统提供参考。但它的最大问题在于:什么样的规则是合适的。规则的制定意味着规则的违反,还可能导致智能体为遵守规则而接受其他消极后果。同时,基于不同环境和认知负荷等因素,人类依赖直觉的和深思熟虑的双系统伦理加工体系,这反映出义务论(基于手段)需要后果论(基于目的)决策的参与,故义务论下的人工智能伦理存在情景适配性问题。

(三)养成性问题

德性论视角下的人工智能伦理旨在提升人工智能的人格水平、对人的态度、责任感和勇气。它强调自下而上的实践学习,因而德性具有情境敏感性。但是,德性论的前提是人工智能有自主意识,而当前的人工智能意识研究尚不能使其具有伦理主体性。同时,德性论无法保证人工智能习得的行为符合伦理规范,并且人工智能的迅速迭代使传统伦理内涵难以适应人工智能的伦理需求。

图片

二、人工智能伦理的主体层面问题

(一)主体意愿束缚

人工智能在医疗领域内面临主体意愿被束缚的问题。在患者视角,若人工智能强制病人服从,会出现是迫使患者违背意愿还是修改AI程序的问题。在人工智能视角,若患者拒绝足量服药,是选择让其少吃还是坚持令其服用,这面临着维护病人健康还是侵犯病人自主权的问题。无论何种选择都是对人类意志的违背,也是对人工主体意愿的束缚。最后,如果人工智能具有道德义务和行使权利的能力,则更可能违背人类意志,从而挑战人类尊严。主体意愿的束缚会造成人类自身被物化,更不愿接纳人工智能。

(二)自主决策泛滥

自主军用人工智能技术引发伦理担忧,主要表现在自主决策上:机器人若伤害了平民,谁应负责?一方面,自主军用人工智能技术可能被滥用。另一方面,人工智能不会使战争人性化。目前的人工智能伦理准则不能确保人工智能武器的行为是正义的,人工智能武器在杀敌时可能波及平民。

(三)责任归属分化

关于责任归属分化,最典型的就是自动驾驶,主要包括两方面:首先,自动驾驶汽车是否存在万无一失的系统?第二,若自动驾驶系统能自主学习,它能对决定负责吗?前者基于传统的工具角度,故伦理责任可归于设计。后者预设人工智能是伦理主体,故可将责任归于人工智能。但还存在一种可能:若驾驶员在汽车里睡着,汽车撞上行人,那么驾驶员是犯了过失杀人罪还是无辜的旁观者?可见,人工智能伦理难以确定具体的责任归属。

图片

三、人工智能伦理的实践层面问题

(一)社会不平等加剧

一方面,人工智能加剧社会不平等,尤其表现在边缘群体中。另一方面,人工智能正在全面替代人类劳动。最后,人工智能伦理话语被部分西方国家垄断。不具有人工智能研发能力的国家,更易受到人工智能的负面影响,产生地缘政治后果。

(二)社会伦理反向脱敏

社会伦理最基本的功能是使社会机体具有免疫力,在面对各种外部入侵时不受影响或减少冲击。但是,人工智能伦理的反向脱敏现象使免疫力逐渐失效。人类会自动适应人工智能创制的人工环境,使伦理内涵持续变化而不自知,造成社会伦理的反向脱敏。社会机体对人工智能伦理问题的反应具有相对滞后性,原因主要有:一,人工智能的数据收集和加工隐蔽。二,人工智能技术具有强引导性和诱惑性。最后,人工智能的迭代效应会加剧社会伦理的脱敏。

(三)伦理问题多面化

多国政府及组织相继发布一系列伦理倡议或准则。然而,各方主体在规则应用上却并未达成统一。同时,各国政治、经济和文化的差异阻碍人工智能的伦理涉及。而且,伦理学家与计算机科学家对于人工智能伦理的理解不同。对哲学家来说,不咨询科学家可能导致理论太过抽象而难以实施;相反,如果不咨询哲学家,计算机科学家可能会对伦理理论做出错误解释。

图片

四、应对人工智能伦理问题的策略

(一)弥合理论与实践的鸿沟

主张从抽象的概念争论转向伦理应用和问责创建的实践机制。此外,人工智能伦理的模型建构以及伦理数据的数据化也是可行方案。目前,多数技术开发者不能将抽象伦理原则付诸实践,而且很少有受过训练的伦理学家在科技公司工作,因此,应鼓励伦理学家与科技公司建立有效交流。

(二)确立伦理的人工主体

人工智能挑战了人作为伦理主体的概念,人工智能是否有意识以及在此基础上的道德能动性的问题被持续争论。目前,人工智能作为伦理主体的观念逐渐被接受。人工智能的自主性越强,越具有交互性、自主性和适应性,它对伦理参与的需求就越大,人类对其进行道德限定的必要性就越强。

(三)明确伦理责任归属

人工智能的责任归属问题更多源于自主性问题,而分配责任会稀释主体责任,从而无法界定责任主体。分布式的责任归属加之对技术后果了解不足,会导致研发人员缺乏责任感。关于人工智能伦理的责任归属,有三种不同观点:反对、支持和分布式归属。实质上,人工智能在应用过程中的问题是关涉人的,已产生伦理后果,从这个意义上说,人工智能具有伦理主体的地位。

(四)跨文化建构人工智能伦理

人工智能运行于特定文化背景,人们倾向以自身文化规范与人工智能相处。若人工智能伦理建设只有发达国家参与,将无法保证该伦理体系以及伦理体系下的人工智能设计符合不同文化传统。因此,人工智能伦理需要设计具有文化敏感性的系统,构建一套各国参与的伦理知识体系。

图片

五、结语

国外学者的研究表现出四个特点:第一,研究内容丰富,在人工智能伦理的理论、主体和实践等不同维度进行深度研究。第二,注重研究的现实意义,在运行规则和理性实践的基础上建构有道德的人工智能体。第三,接纳伦理的人工主体,学者意识到人工智能体显现出人类特性,并以趋近乃至超越的方式参与人类生活。第四,强调伦理先行,避免“先发展后治理”的伦理建设模式。但是,国外学者对人工智能伦理中“人”的问题关注较少。人工智能的对象是人,人工智能伦理的发展方向应以人为本。基于此,主张在以下三个方面推进。

第一,人工智能伦理教育。人工智能伦理存在责任不透明、归属难和行为不可解释等问题,并且,人工智能并不与意识形态完全脱离,而是有价值判断作为影响因素。因此,不仅需要针对人类主体的伦理教育,使人工智能从生产到使用的全过程遵从道德规范,还应将人类伦理与机器学习结合,使人工智能获得人类伦理知识及伦理行为的表达能力。

第二,人工共情研究。情感是人工智能拥有道德能力的基础,这需要情感感知和情感表达能力。共情是一种信任机制,也是联结自我与他人的基础,从而实现人工智能与人共享情感空间。若有望实现通用人工智能,人们不希望出现完全理性但对人类的担忧无动于衷的人工智能。因此,人工共情是解决人工智能伦理的重要维度。

第三,人工智能伦理专家平台搭建。主要包括:建设与人工智能研发、生产、销售和维护等相关的专家库平台;设立由多学科专家组成的独立的伦理委员会;共同制定人工智能伦理准则和伦理治理方案;成立人工智能伦理审查委员会。该平台具有超越单个智能系统和单一文化伦理系统的群体智慧优势,能形成适合不同文化群体的智能伦理体系,使人工智能伦理具有适应性、动态性以及更普遍的有效性。

图片

作者:崔中良、卢艺

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多