分享

AI在医疗保健领域的更公平发展方向

 Triumph 2019-11-16

图片提供:Totto Renna

当伊利诺伊州芝加哥市的数据科学家着手测试一种机器学习算法是否可以预测有人待在医院多连续时,他们认为他们正在为每个人提供帮助。将人员留在医院很昂贵,而且如果管理人员知道某些患者最有资格出院,他们可以将其移至医生的优先事项列表的顶部,并发症的延误。这将是双赢的局面:医院将节省资金,人们可以尽快离开。

科学家于2017年底开始工作,他们使用来自芝加哥大学学术医院系统的患者数据对算法进行了训练。他们从前三年的数据中转换的数据进行了整理,以了解哪些因素组合可以最好地预测住院时间。起初他们只看临床数据。但是,当他们将分析扩展到其他患者信息时,他们发现住院时间最好的预测因素之一就是该人的变量。这令人困惑。一个人住院的时间与他们居住的地方有什么关系?

随着研究人员深入研究,他们越来越受到关注。与住院期间相关的归类为肥胖且主要是非裔美国人社区。这些地区的人在医院的住院时间要比那些较富裕的地区(主要是白人地区)的人住院时间长。这种差异的原因使团队避开了。也许来自贫困地区的人们的情况更加严重。也许他们不太可能开处方他们需要的药物。

如果发现优化医院资源是他们计划的唯一目标,那么人们的模仿将是住院时间长短的有力预测指标。但是,在实践中,使用它们将使医院的资源从贫穷的黑人转移到富有的白人,加剧了该体系中的现有偏见。

“最初的目标是效率,而孤立是一个有价值的目标,”马歇尔·钱恩(Marshall Chin)说,他是芝加哥大学医学研究医疗伦理的人,也是该项目的科学家之一。他说,但是公平也很重要,并且在算法的设计中没有明确考虑这一点。

当医学研究人员转向人工智能(AI)改善医疗保健时,来自芝加哥的这个故事是一个及时的警告。人工智能工具可以为医疗系统当前服务不佳的人们带来巨大利益。例如,由以色列谢法因的初创公司Zebra Medical Vision开发的一种AI筛查胸部X线检查是否有结核病迹象的AI工具正在印度的医院中推广,以加快对该病患者的诊断。机器学习算法还可以帮助科学家弄清楚哪些人可能对哪种疗法最有效,从而开创了可以改善疗效的定制医学时代。

人类学家Kadija Ferryman研究了在医疗保健中使用AI的文化和伦理影响。图片来源:伊丽莎白·斯莫拉兹(Elisabeth Smolarz)

但是,这场革命取决于这些工具可用于学习的数据,这些数据反映了我们今天看到的不平等的卫生系统。纽约大学坦登工程学院的人类学家卡迪亚·费里曼(Kadija Ferryman)说:“在某些医疗保健系统中,有一些非常基本的东西被忽略了,人们没有得到基本的医疗质量。” AI在医疗保健中的道德影响。这些不平等被保存在世界各地生成的TB的健康数据中。Ferryman说,这些数据已经为医疗保健行业带来了颠覆性的冲击,这种颠覆是由交通运输行业的乘车共享平台和酒店行业的Airbnb等家庭租赁平台所驱动的。“苹果,谷歌,1

芝加哥的故事是在实施偏差之前先将偏差记录在系统中的一个示例。但并非所有事件都被捕获。1月,在佐治亚州亚特兰大举行的公平,问责和透明度会议上,来自加利福尼亚大学伯克利分校和芝加哥大学的科学家展示了“重大种族偏见”的证据,该算法可确定医疗保健决策,从而为更多人提供医疗服务。在美国超过7000万人2

有问题的算法分配了“风险分数”,该分数用于将具有未来复杂健康需求高风险的人纳入专门提供资源的护理计划中。研究人员发现,与具有相同风险评分的白人相比,黑人患慢性病的人数要多得多。这意味着,与健康水平相同的黑人相比,白人更有可能参加有针对性的计划。研究人员说,如果该算法对黑人和白人的得分相等,那么黑人将以目前两倍以上的速度被录取。

垃圾进,垃圾出

某些人无法获得医疗服务只是AI工具可以扩大全球健康差距的一种方式。另一个问题是确保AI驱动的工具可以平等地应用于不同的人群。这些工具从其学习的数据中往往缺少来自某些人群的信息,这意味着该工具可能不适用于那些社区的成员。

在现有的医学数据集中,白人成年男子的人数过多,但以白人妇女和儿童以及其他种族各个年龄段的人的数据为代价。数据缺乏多样性很可能导致算法有偏差3

已经进行了一些努力来弥补这些差距。2015年,美国国立卫生研究院(NIH)出资1.3亿美元创建了“全民健康计划”。该研究计划旨在形成一百万名志愿者的遗传和健康数据数据库,扩大可用于指导精密医学发展的数据集,从而为美国所有人提供更好的护理质量。它专门针对以前代表性不足的社区进行数据收集。截至7月,该计划的完全注册参与者中有50%以上是少数民族。

但是,即使这样多样化的数据集也可能无法转化为可以在低收入国家/地区可靠推出的AI工具,在这些国家,疾病状况通常与高收入国家/地区不同。在撒哈拉以南非洲地区,被诊断出患乳腺癌的女性平均水平要比发达国家的同龄女性低,而且她们的疾病在诊断时更为晚期4开普敦南非放射学会主席Kuben Naidu表示,经过欧洲乳房X光检查训练的诊断AI工具已准备就绪,可以在早期阶段识别老年妇女的疾病,因此可能无法很好地传播。

解决此问题的明显方法是使AI开发人员可以访问低收入国家/地区的数据。奈杜说,但是这样做引起了对弱势群体数据保护的担忧。医疗数据非常敏感-例如,艾滋病毒感染状况等信息可用于区分某些人群。Naidu回忆起几年前访问美国放射科医生聚会时遇到的急切困扰。他说,参展商中的AI公司“非常高兴得知我来自非洲,并询问他们如何获得我们的数据”。

他说,公司愿意为这类数据付费,这可能会诱使资金短缺的国家卫生系统或个人研究人员放弃患者数据,而可能无需认真考虑共享数据的人的权利。许多发展中国家正在引入数据保护法,但是在执法不严的国家,可以规避此类法规。

当然,隐私不仅仅是发展中国家的担忧。即使在诸如美国这样拥有强大数据保护法规的国家中,将个人数据保密也可能比预期的要难。芝加哥大学目前正面临与Google共享患者记录的集体诉讼。根据该国的隐私法,该项目从数据中删除了诸如社会安全号码和姓名之类的标识符。但是诉讼的原告认为,患者就诊的日期(未从数据中删除)可以与Google持有的其他信息(例如智能手机位置)结合使用,以使人们与他们的健康记录相匹配。

一个相关的担忧是,数据公司可能会诱使人们放弃其隐私,以换取医疗或经济报酬。这样的做法可能会像已经将不同的社会经济群体分开5的数字鸿沟一样,在贫富之间建立隐私鸿沟

费里曼(Ferryman)是“所有人”计划的机构审查委员会成员,她承认,她在努力从历史上边缘化和残酷的人口中收集数据(无论多么仁慈)与为保护这些人口之间的紧张关系而感到挣扎从被剥削。“一方面,我们希望通过收集有关他们的更多信息来帮助这些人。但是,另一方面,将不会以歧视数据的方式使用数据呢?”

通过AI促进公平

确保AI工具不会加剧健康不平等的一种方法是将公平性纳入AI工具的设计中。芝加哥大学医学数据小组在发现其建议的出院优化算法后发现了问题。现在,其数据科学部门与大学的多元化,包容性和公平性部门紧密合作。该大学的医疗保健交付科学与创新中心的数据科学家约翰·法伦巴赫(John Fahrenbach)表示,这意味着解决AI的公平问题不是事后才想“,而是我们如何在医疗系统中实施AI的核心”。

美国国立卫生研究院全体成员团队从参与者那里收集样本。由美国国立卫生研究院全人类研究计划提供

Fahrenbach担心,在大多数机器学习模型的设计中,人们对公平的关注不足。“医疗保健中有很多机器学习模型正在开发,部署和推广中,我很少听到他们甚至提到这些问题。这确实必须改变,正规的监管可能是实现这一目标的最佳方式。”他说。

在这方面还有一些路要走。英国国家卫生局(National Health Service)在2月份发布的最新数据驱动型卫生与护理技术行为准则中未对AI扩大健康差距的潜力给予足够的关注而受到批评6同样,美国医学会敦促监管和批准新医学技术的美国食品药品监督管理局(FDA)强调偏见是在医学软件批准过程中机器学习的重大风险。在四月份提出的对该流程的修改将允许AI工具通过从新数据中学习来不断提高其性能,而无需经过FDA的另一次审查。

一些研究资助者通过启动研究计划来研究AI工具的引入如何影响获得护理及其质量的方法,从而直接解决该问题。总部位于伦敦的生物医学慈善机构Wellcome于今年6月启动了此类计划。这项耗资7千5百万英镑(9000万美元)的五年计划,将研究确保健康数据使用创新将使所有人受益的方法-不仅在英国,而且在世界其他地区例如东非,南部非洲和印度,惠康在这些国家和地区都有很强的影响力。

惠康公司科学与健康数据负责人尼古拉·佩林(Nicola Perrin)表示,确定不完整的数据或有偏见的数据是否会导致医疗保健不平等将在该计划中发挥作用,但这并不是重点。该计划将深入探讨各个医院的独特组成(例如,医生,药品或设备的可用性以及医院与依赖它进行护理的社区之间的关系)如何影响AI工具的交付。

她说:“那是永远被忽略的地方,那是无聊的,不性感的部分。” 她说,特别是在发展中国家,这是要确保工具实际上能够满足当地的需求,并从旨在帮助他们的社区中建立信任和认可。“我们需要了解人们的期望以及界限在哪里。”

这一点与奈杜的观点相呼应。他说,在发展中国家推出卫生保健工具绝非易事,这需要对卫生系统中的现有瓶颈有深入的了解。例如,可以在印度使用的可以从胸部X射线识别患有结核病的人的AI,还可以节省南非的时间,金钱和生命,尤其是在没有专家检查此类图像的农村地区,他说。但是首先要获得图像,社区将需要X射线机和人员来操作它们。无法提供这些资源将意味着AI工具将仅为那些已经生活在资源更丰富的诊所附近的人提供服务。

Ferryman认为对新的医疗技术保持谨慎是正确的。她说:“并不能绝对保证这些工具所带来的好处会超过其潜在危害。” 但她还认为,美国大多数从事卫生保健工作的人都希望有一个更加公平的制度。她说,卫生系统是由训练有素的专家建立的,他们的主要动机是关怀人们,许多医生渴望使该系统更加公平的创新。“那给了我希望。”

    本站是提供个人知识管理的网络存储空间,所有内容均由用户发布,不代表本站观点。请注意甄别内容中的联系方式、诱导购买等信息,谨防诈骗。如发现有害或侵权内容,请点击一键举报。
    转藏 分享 献花(0

    0条评论

    发表

    请遵守用户 评论公约

    类似文章 更多