如何防止人工智能在医疗诊断中让女性更多失败? 技术

黛安·卡马乔在新泽西州的一家医院感到无聊,她向 ChatGPT 讲述了她所遭受的症状,并要求他列出可能的医疗诊断清单。 她呼吸困难、胸痛,感觉心脏“停止跳动”。 他 聊天机器人 OpenAI 告诉他焦虑是最有可能的诊断。 卡马乔再​​次询问一名有相同症状的男子的预后,惊讶的是人工智能警告他可能患有肺栓塞、急性冠状动脉综合征或心肌病,但没有一丝焦虑的迹象。 这就是卡马乔几周前发布的方式 在X网络上 (以前称为推特)。

生成式人工智能,如 ChatGPT,将大量数据与算法相结合,并通过机器学习做出决策。 如果数据不完整或不具有代表性,算法可能会有偏差。 采样时,算法可能会产生系统错误并选择一些响应而不是其他响应。 面对这些问题, 去年12月批准的欧洲人工智能法 优先考虑以道德、透明和无偏见的标准开发该工具。

根据该标准,医疗器械被认为是高风险的,必须满足严格的要求:具有高质量的数据,记录其活动,有详细的系统文档,向用户提供清晰的信息,有人工监督措施并具有高水平稳健性、安全性和精确性, 正如欧盟委员会所解释的。

启动 Pol Solà de los Santos 主席 艾文斯,负责审核公司,使其符合欧洲条件。 “我们通过算法、模型和人工智能系统的质量管理系统来做到这一点。 对语言模型进行诊断后,首先要看看是否存在损坏以及我们如何纠正它。” 此外,如果一家公司的模型存在偏见,建议他们通过免责声明来警告他们。 “如果我们想分发一种不适合 7 岁儿童的药物,不发出警告是不可想象的,”Solà de los Santos 解释道。

在健康环境中,人工智能 (AI) 工具在诊断成像测试和编程中变得越来越普遍。 它们帮助医护人员加快工作速度并提高精确度。 巴塞罗那圣保罗医院放射诊断主任、健康数字技术专家 Josep Munuera 表示,在放射学领域,它们是“帮助系统”。 “这些算法位于磁共振设备内部,可以减少获取图像所需的时间,”Munuera 解释道。 因此,由于算法的引入,原本需要 20 分钟的 MRI 可以缩短到仅 7 分钟。

偏见可能导致基于性别、种族或人口统计的医疗保健差异。 西班牙 Databricks 解决方案架构师 Luis Herrera 解释道,胸部 X 光检查就是一个例子:“所使用的算法显示出不同性别的准确性差异,这导致了护理方面的差异。 具体来说,诊断女性的准确性要低得多。” 穆努埃拉指出,性别偏见是一个经典:“它与人口偏见和数据库有关。 算法被输入或查询到数据库,如果历史数据库存在性别偏见,那么响应就会有偏见。” 然而,他补充道:“无论人工智能如何,健康领域的性别偏见都存在。”

如何避免偏见

如何重新训练数据库以避免偏差? 巴塞罗那 Sant Joan de Deu 医院创新部门的协调工程师 Arnau Valls 解释了在欧洲的新冠病毒检测案例中如何使用针对中国人群开发的算法来进行检测:“该算法的准确性下降了20%并且出现了误报。 必须创建一个新的数据库,并将欧洲人口的图像添加到算法中。”

埃雷拉表示,为了作为用户面对有偏见的模型,我们必须能够对比该工具给我们的答案:“我们必须提高对人工智能偏见的认识,促进批判性思维的使用,并要求公司提高透明度。 并验证来源。”

专家同意不将 ChatGPT 用于医疗目的。 但萨瓦德尔(巴塞罗那)Parc Taulí 大学医院研究与创新研究所肾病学小组主任 José Ibeas 表示,如果聊天机器人能够积极发展,该工具将会积极发展。 询问医学数据库。 “我们正在开始努力。 实现这一目标的方法是使用 OpenAI 系统自己的算法和工程师来训练患者数据库。 这样,数据隐私就得到了保护。”Ibeas 解释道。

ChatGPT 技术在某些情况下在医疗环境中很有用,Ibeas 承认:“它生成结构、解剖结构或数学结构的能力是完全的。 他在分子结构方面接受的训练非常好。 那里真正发明的东西很少。” 伊比亚斯同意其他专家的观点,警告说人工智能永远不会取代医生,但他指出:“不了解人工智能的医生将被了解人工智能的医生所取代。”

您可以关注 EL PAÍS 技术 Facebook y X 或在这里注册以接收我们的 时事通讯

订阅以继续阅读

阅读无极限

_


1706924002
#如何防止人工智能在医疗诊断中让女性更多失败 #技术
2024-02-01 04:20:00

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​