《中国社会科学文摘》2024年第1期P17—P18中国科学技术大学科技哲学系 中国科学技术大学公共事务学院,原题《医疗人工智能伦理研究的发展趋势——主题分布、知识基础与未来展望》,摘自《自然辩证法通讯》2023年12期,崔晋摘 医疗人工智能的伦理问题正逐渐成为学术界、产业界与政府卫生部门关注的热点领域。医疗人工智能伦理相较于技术伦理的研究起步较晚,但随着医疗人工智能技术成熟度的提升以及商业投资规模的不断扩大,医疗智能化转型的整体趋势已日臻显著,相关伦理与道德问题的关注热度也随之迅速升温。人们开始认识到,医疗人工智能的颠覆性不仅是技术范式层面的演化迭代,同时还隐含着对医疗相关社会体制的革新可能。医疗人工智能伦理向度研究的展开,不仅是为应对医学伦理审查,也是确保智能医疗技术实现正向社会效益的前提保障。 医疗人工智能伦理研究在三个不同的发展阶段主要关注如下内容。 1. 初阶探索时期。主要可划分为三类研究方向:一是强调伦理应当成为智能医疗方法理论的构成要素,通过对技术应用现状的分析,如医疗专家系统、电子病历,认为技术伦理问题应当引起相关学术界的重视。这类技术向度对伦理的关注,为医疗人工智能的伦理研究提供了技术层面的必要性背书。二是探索医疗人工智能伦理可能的应对措施,在探讨技术特性与应用案例的过程中,指出计算智能与生命科学的融合过程需要关注可能存在的伦理问题,认为医学中的人工智能系统隐含着特定的理论假设与社会文化态度,并希望通过专业性的课程建设在教育层面实现医学人文的整合发展。三是寻求支撑伦理决策的知识管理框架,认为医疗人工智能的评价需要与临床以及社会环境相整合,作为决策辅助工具,向参与者提供个性化和定制的结构化知识传递,为医师和监护人提供道德决策必要的信息支撑。 2. 进阶涌动时期。该阶段医疗人工智能技术市场的蓬勃前景,使得伦理研究更加注重实践导向的伦理风险分析:一是关注不同医用情境下的技术伦理问题,在探讨护理人工智能实践过程中,尝试构建伦理与道德评估框架;二是深化技术型塑过程中的伦理认知,在讨论应用性情景的过程中,涉及医疗人工智能和大数据伦理的相关探讨或倡议。 3. 加速发展时期。智能医疗伦理研究主要可以分为以下三个主要类别:一是智能医疗深层次的伦理问题,如医疗保健中的偏见非公正与算法决策、人机交互可能产生的情感失控、深度学习在医疗实践中的信任关系、家长式行为逻辑产生的道德困境以及心理与精神健康中使用智能算法的伦理挑战。二是医疗人工智能伦理治理体制的建构,引入利益相关者分析、负责任创新等理论框架,强调医疗人工智能伦理实践必须依托合理的评估指南,技术创新应当与伦理规范平行共进。三是医疗人工智能伦理的价值论断与认识论基础,关注医疗人工智能计算过程可靠性、可解释性以及透明性,认为医师应当具备必要的人工智能技能与专业知识,与医学信息学、数据科学家合作,是智能黑箱伦理悖论消解的重要前提。 经过近30年的发展积累,医疗人工智能伦理已从技术研究的附带议题,逐渐形成一类特殊的专业研究领域。研究形式也不再局限于具体伦理问题的对策研究,开始深入挖掘伦理困境产生的原因背景,并结合社会体制,向整合式、系统化与包容性的医疗人工智能治理体系加速转进。随着医疗人工智能迭代速度的不断加快,贯穿算法研发、数据获取、临床实践、商业落地和健康监管与护理的全过程性医疗人工智能伦理体系,是确保智能医疗伦理与技术协同创新重要的研究议题。 医疗人工智能伦理的知识基础可分为三类:人工智能技术类、医疗学科类、医疗大数据与人工智能伦理。 医疗人工智能每个子域技术开发与应用的实践域境相差甚异。因此,医疗人工智能伦理应当划分为一般性伦理与细分性伦理两大模块。一般性伦理问题讨论的重点应当是普适性的伦理疑难,如数据预测的风险可控性、数据平台权限配置、机器学习的算法偏见、智能医疗资源分配公平性,人工智能伦理的相关研究基本起步于此,下一步需要理清一般性伦理的诱发机制,究竟是技术原理层面存在的条件缺失,还是技术在社会环境中被动性的外源驱动异化?技术内生与外部环境对医疗人工智能伦理形态塑造的权重几何?都需要进一步的研判。 细分性伦理则要求依照不同医疗现实语境下可能出现的伦理问题进行具体分析。如面对人体健康的复杂机制,智能可穿戴设备提供的健康预测能否保障精确性?可能产生的情绪恐慌与过分焦虑如何克服?将智能技术引入患者诊疗与医院管理,医师的主体地位存在被算法消解的风险,传统医学伦理的人文关怀如何保障?弱化家长式诊疗模式,增大病患、消费者的自主性,是否会引发更加棘手的责任归属问题?这一系列医疗人工智能细分技术可能产生的道德困境都是亟待关注和研究的关键议题。 人工智能在医学领域的深度介入引发的伦理问题,其最重要的特殊性在于智能人工物对医师主体地位的替代。目前,医疗人工智能伦理开始进入加速发展阶段,专业性的研究体系正在同步推进建设,提出了一系列医疗人工智能伦理准则,其中有很大一部分源承于传统医学伦理原则,但由于医疗主体的转换、交互模式的改变、医疗信息形式的转化,需要重新审视传统医学伦理规范的适用性、可靠性与完备性。医疗智能化转型的“去人化”,使得医疗人工智能伦理问题在商业化过程加速推进的背景下,与传统伦理观念的“撕裂”风险显得尤为尖锐。因而医疗人工智能伦理下一阶段的研究,需要基于医学伦理与技术伦理理论,深化对医疗人工智能伦理与社会问题的创新阐释,一方面需要根据不同医疗场景,细分技术实施的伦理适用准则,另一方面还应针对整体性的伦理困境,如智能医疗的准道德主体地位的确立与否,医疗人文精神如何在智能化时代得以续存,做出伦理向度的应对准备。这些研究的开展,不仅是人工智能伦理研究持续推进的体现,还能够反哺传统伦理学的理论体系,加速伦理学自身的创新发展。 从技术的社会型塑看,伦理与道德是建构医疗人工智能社会—技术系统必要的非人行动者。应当明确,医疗人工智能伦理与道德是智能医疗技术必要的支撑模块,需要伦理学家、人工智能学者、技术企业、政府机构等利益攸关方的共同协商参与。医疗人工智能伦理已从单纯的学术议题,逐步转向智能医疗实践的政策规范与管理体制的实践研究。医疗人工智能伦理不仅是技术的规范确立与研究人员的素养教育,同时也是医疗人工智能法律、管理与政策重要的理论基础。实现医疗人工智能伦理与治理体制的对应配套,不仅要补足医疗人工智能临床与产品的伦理审查机制,还存在诸多过渡性伦理议题亟待解决,如人工智能战略布局中,医疗人工智能伦理有怎样的战略定位?如何通过法律与行业准则,在医疗人工智能技术设计中嵌入伦理价值?伦理与体制层面如何与医疗人工智能创新协调并进?实现医疗人工智能伦理准则与社会治理体系的双向加持,是确保医疗人工智能技术可靠性与社会可行性重要的外部协同要素,也是防治医疗人工智能技术目标与实践脱轨异化的制度保障,这一系列交叉性议题还需要学术界进一步的关注研究。 为保障医疗人工智能伦理的审查与规范有效性,需要封闭性的社会实验作为中介环节,在一系列的试点反馈中,不断调整和优化医疗人工智能伦理的指导原则与规约制度。界定医疗人工智能伦理准则有效性的实践成果,一方面来自有限边界内的社会后果评价,另一方面更需要关注技术受众的心理与情感反馈。心理学研究能够为医疗人工智能伦理的实践评估提供病患或健康消费者观点的实证参考,为技术伦理提供实践性的证据支持。医疗人工智能伦理规范与治理体系的建设完善,不仅需要“自上而下”的伦理原则作为框架性规约,还需考量各利益有关群体“自下而上”的伦理诉求。医疗人工智能伦理不能被简单地视为强制性的约束限制,更需要关注技术受众的情绪感受,检验伦理规范的实践有效性。心理学方法通过个体心理可接受程度的变化,研判技术调整的可能方向,能够为医疗人工智能伦理提供基于特定医疗情景伦理实践的心理评价,应当成为医疗人工智能伦理下一阶段的重要辅助。
|