人工智能开始在各种临床情况下达到(有时甚至超过)医生的评估。人工智能现在可以像皮肤科医生那样诊断皮肤癌,像神经科医生那样诊断癫痫,像眼科医生那样诊断糖尿病性视网膜病变。目前正在开发一种算法来预测哪些病人会腹泻或最终需要进入重症监护室。美国食品药品管理局最近批准了第一种机器学习算法,用于测量流经心脏的血液流量。

上述情况这会让很多医学生提出这样的疑问,为什么我们还要花十年时间在医学培训上学习诊断和治疗的艺术。

关于人工智能是否真的在医学上起作用,以及它在哪里起作用,还有很多问题:它能发现肺炎、发现癌症、预测死亡吗?但这些问题集中在技术层面,而非道德层面。在一个充满不平等的卫生系统中,我们不得不问:在医学中使用人工智能是否会加剧医疗健康差距?

至少有三个理由相信这种可能性。

第一个是数据训练问题。人工智能必须学会在大数据集上诊断疾病,如果这些数据没有包括来自特定背景的足够多的患者,它们就不那么可靠。来自其他领域的证据表明,这不仅仅是理论上的担忧。最近的一项研究发现,一些面部识别程序对浅肤色男性的错误分类不到1%,而对深肤色女性的错误分类超过了三分之一。当我们依靠这样的算法来诊断浅肤色人种以及深肤色的黑色素瘤时会发生什么?

尽管知道女性和少数族裔有不同的疾病危险因素和表现,但长期以来,医学一直在努力增加研究中的女性和少数族裔代表。许多基因研究缺乏黑人患者,导致错误的结论。女性心脏病发作时通常会出现不同的症状,导致治疗延误。或许,使用最广泛的心血管风险评分法(使用的数据主要来自白人患者)对少数族裔来说可能不那么精确。

人工智能将告诉我们可能会中风的人群,或者哪些患者会在临床试验中受益,是否会将这些担忧编入算法,证明对代表性不足的群体没有那么有效?

其次,因为人工智能是基于真实数据进行训练的,它有可能将导致医疗健康差异的经济和社会偏见整合、固化和永久化。同样,来自其他领域的证据具有指导意义。用于帮助法官预测哪些罪犯最有可能再次犯罪的人工智能程序显示出令人不安的种族偏见,那些旨在帮助保护儿童的服务机构决定哪些电话需要进一步调查的程序也是如此。

在医学上,未经检查的人工智能可能会制造出自我实现的预言,证实我们之前的偏见,尤其是在面对复杂的权衡和高度不确定性的情况时。例如,如果较穷的患者在器官移植或接受晚期癌症化疗后病情恶化,机器学习算法可能会得出结论,认为这些患者不太可能从进一步治疗中获益——并建议不要这样做。

最后,如果人工智能的实施对某些群体产生了不成比例的影响,即便是表面上是公平、中立的人工智能也有可能加剧这种差距。这是考虑到一个帮助医生决定患者在膝盖手术后是回家还是去康复中心的项目得出的。这是一个充满不确定性的决定,但却会产生真实的后果:有证据表明,被送到一家康复机构的费用更高,再入院的风险也更高。如果一种算法将居住在低收入社区作为无法获得良好康复支持的标志,它可能会建议少数族裔患者去护理机构,而不是接受家庭物理治疗。更糟糕的是,一项旨在提高效率或降低医疗成本的计划可能会完全完全不支持上述操作。

在某种程度上,这些问题在医学上已经存在。美国的医疗保健一直在与收入和种族不平等作斗争,这种不平等源于各种形式的偏见。人工智能的风险在于,这些偏见将变得自动化和无形化——我们开始接受机器的智慧,而不是我们自己的临床和道德直觉的智慧。许多人工智能程序都是黑盒子:我们不知道里面到底发生了什么,也不知道它们为什么会产生这样的输出。但我们可能会越来越多地被期望尊重他们的建议。

不过,人工智能在改善医学方面仍有巨大潜力。它很可能使医疗保健工作更有效、更准确,如果得到适当部署,还可能更公平。但要实现这一承诺,就需要意识到存在偏见的可能性,并加以防范。这意味着定期监控算法的输出和下游结果。在某些情况下,这将需要反偏见算法来寻找和纠正微妙的、系统的歧视。

但最根本的是,这意味着要认识到,照顾病人的仍然是人,而不是机器。我们有责任确保将人工智能作为一种可使用的工具——而不是人类成为人工智能的附属品。

无线动作捕捉系统

动捕

全身动作捕捉

虚拟动作捕捉