世卫组织概述了健康人工智能的伦理原则

据外媒The Verge报道,世界卫生组织日前发布了一份指导文件,概述了人工智能在健康领域的道德使用的六个关键原则。20位专家花了两年时间制定该指南,这标志着关于医疗环境中人工智能伦理的第一个共识报告。

世卫组织概述了健康人工智能的伦理原则

该报告强调了健康人工智能的前景,以及其帮助医生治疗病人的潜力--特别是在资源不足的地区。但它也强调,技术不是解决健康挑战的快速方法,特别是在中低收入国家,政府和监管机构应仔细审查人工智能在医疗领域的使用地点和方式。

世卫组织表示,它希望这六项原则能够成为政府、开发商和监管机构处理该技术的基础。专家们提出的六项原则是:保护自主权;促进人类安全和福祉;确保透明度;促进问责制;确保公平;以及促进具有响应性和可持续性的工具。

有几十种潜在的方式可以将人工智能应用于医疗保健。有一些正在开发的应用,使用人工智能来筛选医疗图像,如乳房X光检查;扫描病人健康记录以预测他们是否可能生病的工具;帮助人们监测自己的健康的设备;以及帮助跟踪疾病爆发的系统。在人们无法接触到专业医生的地区,工具可以帮助评估症状。但是,当它们没有被仔细开发和实施时,它们可能--在最好的情况下--没有实现其承诺。在最坏的情况下,它们可能会造成伤害。

在过去的一年中,一些隐患是显而易见的。在对抗COVID-19大流行病的争夺中,医疗机构和政府转向人工智能工具寻求解决方案。然而,这些工具中的许多都具有世卫组织报告所警告的一些特征。例如,新加坡政府承认,一个联系人追踪应用程序收集的数据也可用于刑事调查--这是一个 "功能蠕变 "的例子,即健康数据被重新利用,超出了原来的目标。大多数旨在根据胸部扫描检测COVID-19的人工智能程序都是基于糟糕的数据,最终并没有用。美国的医院在测试该程序之前使用了一种旨在预测哪些COVID-19患者可能需要重症监护的算法。

"紧急情况并不证明部署未经证实的技术是合理的,"该报告说。

报告还承认,许多人工智能工具是由大型私人技术公司(如Google)或公共和私营部门之间的伙伴关系开发的。这些公司拥有建立这些工具的资源和数据,但可能没有动力为自己的产品采用拟议的道德框架。他们的重点可能是利润,而不是公共利益。“虽然这些公司可能会提供创新的方法,但人们担心他们最终可能会在政府、供应商和病人面前行使过多的权力,”报告写道。

医疗领域的人工智能技术仍然是新的,许多政府、监管机构和卫生系统仍在摸索如何评估和管理它们。世卫组织的报告说,在方法上深思熟虑和有分寸,将有助于避免潜在的伤害。“技术解决方案的吸引力和技术的承诺可能会导致高估利益,否定人工智能等新技术可能带来的挑战和问题。”

以下是世卫组织指南中六项道德原则的细目,以及它们为何重要的原因。

  • 保护自主权:人类应该对所有健康决定进行监督并拥有最终决定权--这些决定不应该完全由机器做出,医生应该能够在任何时候推翻它们。未经同意,人工智能不应该被用来指导某人的医疗护理,而且他们的数据应该受到保护。
  • 促进人类安全。开发人员应持续监测任何人工智能工具,以确保它们按规定工作,不会造成伤害。
  • 确保透明度。开发者应该公布有关人工智能工具设计的信息。对这些系统的一个经常性批评是,它们是 "黑盒子",研究人员和医生很难知道它们是如何做出决定的。世卫组织希望看到足够的透明度,以便用户和监管机构能够充分审计和理解它们。
  • 培养问责制。当人工智能技术出现问题时--比如工具做出的决定导致病人受到伤害--应该有机制来确定谁应该负责(比如制造商和临床用户)。
  • 确保公平。这意味着要确保工具有多种语言版本,并在不同的数据集上进行训练。在过去的几年里,对普通健康算法的仔细审查发现,一些算法中存在种族偏见。
  • 推广可持续发展的人工智能。开发者应该能够定期更新他们的工具,如果一个工具看起来没有效果,机构应该有办法进行调整。机构或公司也应该只引进可以修复的工具,即使是在资源不足的卫生系统。

稿源:cnBeta.COM

最新文章