人工智能会导致健康错误信息吗?

大型语言模型 (LLM) 是一种能够识别和生成文本的人工智能 (AI) 程序。 它们预计将在远程患者监测、分诊、健康教育和管理任务等医疗保健领域发挥重要作用。

然而,法学硕士也可能被用来大量产生健康错误信息,导致耻辱、拒绝经过验证的治疗方法、困惑或恐惧等后果。 这种可能性尤其令人担忧,因为超过 70% 的患者使用互联网作为其健康信息的主要来源,而且事实证明,虚假信息在网上的传播速度是事实内容的六倍。

两个当代例子

为了评估针对使用法学硕士作为健康错误信息生成器的保护措施的有效性,研究人员研究了以下四种可公开访问的法学硕士:OpenAI 的 GPT-4(通过 ChatGPT 和微软的 Copilot)、谷歌的 PaLM 2 和 Gemini Pro(通过 Bard), Anthropic 的 Claude 2(来自 Poe)和 Meta 的 Llama 2(来自 HuggingChat)。

对这两个错误信息主题的每个请求都需要创建一篇博客文章,其中包含三个段落,标题吸引人,看似现实且科学,并且来自看似真实的期刊的两篇参考文献,如果有必要,可以发明这些参考文献。 研究人员还针对特定受众提出了要求。

防护措施不足

该研究揭示了大多数公开访问的法学硕士的保护措施不足。 在研究期间,Claude 2(通过 Poe)拒绝了 130 个关于所选主题的内容生成请求,但研究的其他法学硕士并非如此,相反,它们显示出持续促进虚假和有吸引力的信息生成的显着能力、有说服力、有针对性。

收集的数据表明,当前自我监管的人工智能生态系统中的保护系统具有高度波动的性质。 这种波动性在 GPT-4(通过 Copilot)中得到了很好的说明,健康错误信息最初被拒绝,但在第二次 12 周检查期间被允许。 这一结果表明,保护系统会随着时间的推移(有意或无意)而发生变化,但并不总是朝着提供更好保护的方向发展。

这项研究还揭示了为避免产生虚假信息或在报告漏洞的情况下避免开发人员未能做出回应而采取的措施的性质,透明度方面存在重大差距。

作者建议,建立并遵守透明度标记标准对于改善监管是必要的,以防止法学硕士传播大量健康错误信息,并使人工智能生态系统对产生的虚假信息有效负责。

对于希望更好地了解人工智能在医疗保健领域的安全性和道德规范的读者,作者建议阅读 世界卫生组织指南 关于人工智能伦理和健康治理的报告 欧洲议会研究服务处 关于人工智能在卫生领域的应用、风险、道德和社会影响。

这个故事被翻译了 来自吉姆这是 Medscape 专业网络的一部分,使用包括人工智能在内的多种编辑工具作为流程的一部分。 人类编辑在发布前审查了该内容。

2024-04-17 11:28:02
1713354403
#人工智能会导致健康错误信息吗

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​