![](https://healthtechmagazine.net/sites/healthtechmagazine.net/files/styles/cdw_hero/public/articles/%5Bcdw_tech_site%3Afield_site_shortname%5D/202407/LLM.jpg?itok=bE_Tbv1O)
法学硕士、数据隐私、患者安全和幻觉
今年早些时候,世界卫生组织发布 法学硕士的道德使用指南 以及其他医疗保健领域的人工智能。世卫组织认识到 LLM 的潜力,同时强调了一系列风险,包括但不限于不准确性、偏见、缺乏问责制、对隐私的威胁以及数字鸿沟的进一步扩大。世卫组织指出:“LMM 的获取和使用方式是新的,既有新的好处,也有新的风险,社会、卫生系统和最终用户可能还没有准备好充分应对这些风险。”
Ananth 表示,LLM 的开发者和用户都必须对自己的行为负责。这包括在没有人参与的情况下使用 LLM 输出可能造成的危害。他建议采取六项保护措施:
- 制定有关整个组织内可以使用和不能使用 LLM 和生成式 AI 的地方的指导方针。
- 使用不同的数据集并对其进行严格的测试和人工反馈,以实现“强化学习”。
- 确保只有授权个人和系统可以访问数据集并要求在访问之前进行身份验证,以保护数据集免受网络攻击。
- 整合“可解释的人工智能技术”,以便最终用户能够理解 LLM 为何提出特定的建议。
- 通过关于法学硕士 (LLM) 的能力和局限性的“持续对话”,保持透明的发展过程。
- 监控和评估法学硕士的表现,特别是它们对结果的影响,以保持符合监管和道德标准。
LLM 的一个担忧领域是“幻觉”——模型输出完全错误。(想象一下有七根手指或三条手臂的人的图像。)医疗保健的风险肯定很高,特别是在做出诊断或确定账单代码时。这在很大程度上解释了为什么使用 LLM 回复患者门户消息的医生会花时间审查模型输出。
H2O.ai 战略和产品副总裁 Prashant Natarajan 表示,开发人员和用户应该认识到幻觉是 LLM 的固有组成部分,在部署时要牢记这一点。
“生成式人工智能模型旨在处理大量文本数据。它们能够很好地预测序列中的下一个标记”,例如单词中最有可能出现在“Q”后面的字母。“它不是数学预测模型。”
纳塔拉詹说,法学硕士需要接受测试,组织需要关注出现的幻觉。“在某些情况下,你 想 幻觉,因为你可以使用已知的技术来减少它们。你需要了解幻觉在什么情况下有用。除非你亲身实践,否则你不会知道。”
探索: 医学院培养下一代临床医生以更好地了解人工智能。
医疗领域法学硕士的未来
斯坦福大学的一项分析表明 医疗健康领域法学硕士还有巨大未开发潜力。迄今为止,许多 LLM 已被用于增强诊断或与患者沟通等任务。很少有模型能够解决导致临床医生倦怠的行政任务。
该研究的作者总结道:“我们迫切需要为法学硕士建立评估循环,在该循环中,模型被建立、实施,然后通过用户反馈不断评估。”
纳塔拉詹表示,尽管目前法学硕士的应用范围有限,但如今还是很有用的。他说,“前沿”是指法学硕士进一步融入临床医生和患者每天使用的应用程序中,看似完成一项任务,完成后便消失不见。
“人工智能正在转向互动、行为、情境和智能代理。它与行为、反应和情感相连,”他说。“世界正在扩展,不再仅限于写电子邮件。”
1720191471
#医疗领域法学硕士的未来5 #个临床用例
2024-07-01 13:17:49