患者希望人工智能与医生合作
在癌症患者的PET图像中,人工智能有可能勾勒出肿瘤的边界。它已经可以拼凑从MRI设备捕获的数据,以创建您的大脑图像,并在创建新药并测试它们的不良相互作用时识别抗菌素耐药性。
然而,人们对被人工智能系统诊断有何感受?来自圣路易斯华盛顿大学的一个跨学科团队与其他机构的同行一起探讨了这个问题。他们的发现作为评论文章发表在今年早些时候的《自然医学》杂志上。
您想收到一封计算机生成的电子邮件,通知您它计算出的您患有癌症的精确概率吗?
“‘我有75.8%的不确定性。’这不是我自己想的事情,”该大学麦凯维工程学院生物医学工程助理教授AbhinavJha说。但这就是具有重大前景的AI方法(称为概率分类器)报告结果的方式。
在艺术与科学哲学副教授AnyaPlutynski打来电话后,Jha开始更深入地思考概率分类器在医学中的意义。作为生物学和医学的历史学家和哲学家,医学筛查的复杂性对她来说并不陌生。
“我之前曾考虑过癌症筛查所涉及的权衡取舍并发表过文章,但还有与AI相关的其他并发症,我认为与Abhinav合作将有助于阐明这一点,”她说。她跨越了相当大的学术鸿沟,与构建人工智能系统的Jha建立了联系。
四人与伦敦政治经济学院自然与社会科学哲学中心的乔纳森·伯奇和斯坦福大学以人为本的人工智能研究所的凯瑟琳·克里尔一起提出了一个问题:患者想要什么当谈到医学筛查中的人工智能?适应患者价值观和个人风险关系的最佳方式是什么?
在华盛顿大学患者外展小组的协助下,他们进行了一项小型调查,询问患者是否更愿意单独使用人工智能进行诊断,或者他们是否不想与它有任何关系。或者他们可能更喜欢介于两者之间的东西——基于患者偏好和他们愿意承担多少风险的“决策阈值”。
Plutynski说:“我有点惊讶患者会希望AI被纳入其中。”但他们中的大多数人在一定程度上做到了。
他们的论文指出了许多这样的评论:我认为人工智能是一种帮助临床医生做出医疗决策的工具。我不认为它能够做出有效权衡我个人意见的决定,也不认为它具有良好医生的临床经验和直觉。
“患者对AI作为唯一的决策者感到不舒服,”Jha说。“他们希望人类成为监督者,但他们确实希望将人工智能的概率计算纳入最终决定。”
大多数受访者还表示担心他们不知道人工智能计算出的不确定性程度。他们也担心自己的价值观可能不会被考虑在内。
该调查帮助团队找到了一条有希望的“决策路径”,通过这种方法,患者在接受筛查后,他们会收到结果并继续前进。
他们发现了两种情况,他们建议进一步考虑。在这两种情况下,都会对患者进行筛查(例如通过乳房X光检查)并进行风险价值问卷调查。从那里,人工智能整合了患者的筛查结果和患者的风险价值概况,然后使用两者来提出建议——召回患者是否进行活检(这是上图中的途径“B”)。
医生可以接受或拒绝AI的建议。
或者,将患者的风险值结果发送给医生,人工智能仅根据患者的筛查结果计算患癌概率。医生收到AI的结果并将其与患者的个人资料整合以做出决定(途径“A”)。
“我认为人工智能是医学风险和机遇的来源。如果诊断判断只是简单地外包给人工智能,而人类读者根本没有任何作用,它可能会削弱患者的信任,但人工智能也有可能使诊断更加以患者为中心,”伯奇说。
“即使是非常熟练的人类阅读器也无法以反映特定患者价值观和偏好的方式微调他们的诊断标准——但精心设计的人工智能可以,”他说。“我们对六种可能的决策途径的讨论是试图找到一个中间地带,既能保持患者的信任,又能抓住人工智能的机会。”
挑战仍然存在,一些已知的挑战,例如人工智能算法中内置的偏见,还有一些尚未出现。像这样的合作可以发挥重要作用,确保人工智能在医疗环境中的扩大使用以一种让患者和临床医生都感到最舒适的方式进行。
“我希望有更多的合作,”Plutynski说。“这将对医疗保健产生如此巨大的影响,并且在筛查和测试的背景下会出现各种有趣的、棘手的伦理问题。”
Jha发现这项工作是有效的。“作为一名人工智能科学家,这让我相信患者确实需要技术来支持他们。他们想要该技术可以提供的全部内容。
“他们不只是想听到‘你得了癌症’或‘你没有癌症’。如果这项技术可以说,‘你有75.8%的几率患上癌症,那么这就是他们想知道的。”
标签: