新的伦理结构已经发展起来以解决AI临床数据共享中的伦理问题

人工智能2020-04-17 16:31:13
导读在一个日益网络化的数字世界中,数据保护是一个非常热门的话题,随着医学采用和开发更有利于研究和开发的数字工具,对患者数据安全的威胁也越来越大。《放射学》杂志发表的一份特别
音频解说

在一个日益网络化的数字世界中,数据保护是一个非常热门的话题,随着医学采用和开发更有利于研究和开发的数字工具,对患者数据安全的威胁也越来越大。

《放射学》杂志发表的一份特别报告指出,临床数据应可用于研究和开发以及其他次要目的,如揭示人工智能算法。

人工智能有可能极大地加速了医学图像分析的婴儿,但为了教技术被用于识别的情形,他一定是把庞大的数据量的检测和图像如mamogramas和CT扫描,很多差距。这就提出了关于伦理结构的重要问题,当患者数据被共享时,伦理结构将保护患者数据。

大卫·b·拉森博士,DM,斯坦福大学医学院的MBA,斯坦福,加州人民学习,解释说,“临床资料应由研究人员和现场后,被家庭和所有病人标识符删除”,但“所有与这些数据应当guardarado道德标准,包括保护病人的隐私,没必要进行临床资料。”

在此之前,关于临床数据共享的争论集中在所有权上,选择是患者拥有其医疗数据,还是生成数据的医疗机构拥有数据。然而,拉尔森博士和他的同事们设计了第三种选择,当数据被用于次要目的时,不将所有权归于任何数据。

拉尔森博士和斯坦福大学的研究团队开发了一个专门的结构来共享和使用临床数据来开发人工智能技术。拉森临床识别访问工具的数字和数据处理可以“加速很我们的能力去赢得理解和开发新的应用程序可以从病人和人口,”但“伦理问题,利用数据不可能经常分享彼此的信息。”

继续说:

“医疗数据,即简单的记录观察,是为了向患者提供帮助而获得的。当这种关注被提供时,这个目的就实现了,所以我们需要找到另一种方式来思考这些记录下来的观察应该如何用于其他目的。

“我们相信,患者、提供者组织和算法开发人员都有道德义务帮助确保这些观察结果被用于造福未来的患者,认识到保护患者隐私是最重要的。”

拉尔森的结构将支持为研究和开发发布已识别和汇总的数据。然而,那些使用这些数据的人必须表明自己的身份,并坚持严格的道德实践。这种结构不需要耐心的同意,因为他们不能总是选择不共享他们的数据以供人工智能披露,但他们的隐私必须得到保护。

这篇文章指出,当数据以这种方式使用时,首先感兴趣的不是数据本身,而是“作为数据基础的物理性质、现象和行为”。

作者认为,对患者感兴趣的是,研究人员可以查看他们的临床数据,以便在解剖学、生理学和疾病进展方面获得更深层次的内省,但前提是他们在这样做时无法识别任何患者。

拉尔森框架下的临床供应商不允许出售数据,但企业组织可以从临床数据产生的人工智能算法中获利,而利润不是来自数据的销售,而是来自数据产生的技术或活动。提供者组织可以与提供资金支持以促进其研究的合作伙伴共享临床数据,如果他们的支持仅用于其目的,而不是研究访问数据。

拉尔森说:“我们强烈强调保护病人的隐私是最重要的。必须识别数据。事实上,那些收到数据的人不应该试图用技术识别来重新识别患者。

病人的隐私将通过删除所有数据识别信息来实现。如果在婴儿图像扫描中可以识别特征,那么任何使用这些图像的人都需要通知共享图像的组织,以便有效地拒绝数据。正如拉尔森所指出的,这“将把供应商组织的道德义务扩展到所有与数据交互的人”。

我们希望,这种结构将有助于在医学信息学领域进行更富有成效的对话,并与决策者进行对话,因为我们正在努力将伦理考虑转化为监管和法律要求。

David B. Larson博士,斯坦福大学医学院

结构由拉森先生和他的同事将由公共领域,使其他组织和个人考虑潜在的工作时要回答的问题的压力围绕病人隐私和数据保护技术,并在临床数据共享。

研究人员揭示了人工智能时代共享临床数据的框架。每日科学。可以从https://www.eurekalert.org/emb_releases/2020-03/rson-ruf031720.php

拉尔森等人(2020年)。为人工智能使用和共享临床影像数据的伦理:一个被提议的框架。放射学。DOI: https://doi.org/10.1148/radiol.2020192536

Langlotz, C.P.等(2019)。医学成像中人工智能基础研究的路线图:来自2018年NIH/RSNA/ACR/ Academy研讨会。放射学。DOI: https://doi.org/10.1148/radiol.2019190613

免责声明:本文由用户上传,如有侵权请联系删除!