预防临床预测模型中可能的“算法歧视”
概要:如果训练数据中存在性别方面的不均衡,会让训练出的模型存在性别方面的“算法歧视”,进而导致某种性别下存在更多的误诊误治,最终造成医疗资源分配的不公平的伦理问题,导致模型不被临床所接受。
预测模型的伦理问题逐渐被大家重视和讨论。最开始是数据安全问题。经过一段时间的讨论,大家已经有所共识——保护个人隐私,重视数据安全;现在最常被讨论的伦理问题,叫做“算法歧视/偏见”,其描述的是算法可能会对某些问题形成偏见,因为所用的训练数据带有这种偏见。一个比较典型的例子是,Joy Buolamwini测试了许多面部识别商用软件发现,白人男性性别被正确识别的概率高达99%。随着肤色变暗,错误率也呈指数增长,近35%黑人女性无法被正确识别,其原因可能是黑人女性中训练数据较少的缘故。
而在临床预测模型中,“算法偏见”同样也是存在的,而且是需要尽量避免的,因为(以性别为例):
1.训练数据比例失衡导致算法偏见: 训练数据反映了现实世界的数据分布,如果女性比例过低,那么算法就会学习到男性患者的数据特征,而无法准确识别女性患者的特征。这可能导致女性患者的疾病被误诊或漏诊。
2. 算法偏见导致医疗资源分配不均: 预测模型的结果可能会影响临床资源的分配。例如,如果模型预测女性患者患病的风险较低,那么她们可能更难获得必要的诊断和治疗。这可能会加剧现有的医疗资源不平衡,并导致女性患者的健康状况恶化。
3. 分配不均有违公平: 所有患者,无论性别如何,都应该享有平等获得准确诊断和治疗的机会,这是医学伦理的重要原则之一。训练数据中的性别偏差会侵犯女性患者的公平权利。
为了解决这个问题,可以采取以下措施:
1. 收集更多女性患者的数据: 这是解决数据偏差有效的方法之一。可以通过多种途径来收集更多女性患者的数据,比如,扩大研究范围、与其他医疗机构开展多中心合作。
2. 开发对性别不敏感的算法: 在训练数据中,舍弃有性别差异的预测变量,转而采用没有性别差异的预测变量。但这可能并不容易,因为临床上许多的指标都是具有性别差异的,但也是个考察的方向。
总而言之,医学领域对于伦理有着更严格的要求。 训练数据中的性别等不均衡会造成模型的算法偏差,进而导致预测结果在性别之间的预测准确度不一致,最终对患者的健康和公平造成负面影响,需要引起足够的重视,避免模型推倒重来。