ChatGPT 可能比其他在线医疗建议更准确:Shots

研究人员使用 ChatGPT 来诊断与眼睛相关的疾病,发现其表现良好。

理查德·德鲁/美联社


隐藏标题

切换标题

理查德·德鲁/美联社


研究人员使用 ChatGPT 来诊断与眼睛相关的疾病,发现其表现良好。

理查德·德鲁/美联社

作为埃默里大学医学院四年级眼科住院医师,莱利·里昂斯 (Riley Lyons) 最大的职责包括分诊:当患者出现与眼睛相关的不适时,里昂斯必须立即评估其紧急程度。

他经常发现患者已经转向“谷歌博士”。 莱昂斯说,在网上,他们可能会发现“根据他们所经历的症状,可能会发生许多可怕的事情。”

因此,当莱昂斯在埃默里大学的两位眼科医生同事找到他并建议评估人工智能聊天机器人 ChatGPT 在诊断眼睛相关疾病方面的准确性时,他抓住了这个机会。

6 月,Lyons 和他的同事在健康科学预印本在线出版商 medRxiv 上报道称,ChatGPT 比较好 人类医生检查了相同的症状,并且比热门健康网站 WebMD 上的症状检查器表现要好得多。

尽管 ChatGPT 存在广为人知的“幻觉”问题(它偶尔会做出完全错误的陈述),但埃默里大学的研究报告称,当以标准的眼光呈现时,ChatGPT 的最新版本的“严重不准确”陈述为零投诉。

ChatGPT 于 2022 年 11 月首次亮相,其相对熟练程度令 Lyons 和他的合著者感到惊讶。 埃默里眼科中心专门研究玻璃体视网膜手术和疾病的助理教授、论文合著者 Nieraj Jain 表示,人工智能引擎“绝对比仅仅将某些内容放入谷歌搜索栏并查看你找到的内容有了很大的进步”。

利用人工智能填补护理空白

但这些发现凸显了医疗保健行业在评估生成式人工智能(ChatGPT 使用的人工智能类型)的前景和缺陷时面临的挑战。

聊天机器人提供的医疗信息的准确性可能比谷歌博士有所提高,但如何将这项新技术整合到医疗保健系统中,并采用历史上应用于引入新药或医疗设备的相同保障措施,仍然存在许多问题。

生成式人工智能流畅的语法、权威的语气和灵巧性引起了社会各界的极大关注,有人将其未来影响与互联网本身进行了比较。 在医疗保健领域,各公司正在积极努力在放射学和医学等领域实施生成式人工智能。 病历。

然而,当谈到消费者聊天机器人时,尽管该技术已经广泛应用并且比许多替代方案更好,但仍然需要谨慎。 许多医生认为,基于人工智能的医疗工具应该经过类似于 FDA 药物制度的审批程序,但这还需要数年时间。 目前还不清楚这样的制度如何适用于像 ChatGPT 这样的通用人工智能。

Jain 表示:“毫无疑问,我们在获取医疗服务方面存在问题,无论部署 ChatGPT 来弥补漏洞或填补获取方面的空白是否是个好主意,这都会发生,而且已经发生了。” “人们已经发现了它的实用性。因此,我们需要了解其潜在的优势和陷阱。”

具有良好床边态度的机器人

埃默里大学的研究并不是唯一认可新一代人工智能聊天机器人相对准确性的研究。 A 报告发表于 自然 7 月初,由谷歌计算机科学家领导的一个小组表示,该公司专门为医疗用途构建的人工智能聊天机器人 Med-PaLM 生成的答案“与临床医生给出的答案相比毫不逊色”。

人工智能也可能有更好的临床态度。 加州大学圣地亚哥分校和其他机构的研究人员于 4 月发表的另一项研究甚至指出,医疗保健专业人士将 ChatGPT 的答案评为 更有同理心 比人类医生的反应。

事实上,许多公司正在探索如何将聊天机器人用于心理健康治疗,这些公司的一些投资者认为,健康的人可能也会喜欢与人工智能“朋友”聊天,甚至建立联系。 Replika 是该类型中最先进的公司之一,该公司将其聊天机器人营销为“关心的人工智能伴侣。永远在这里倾听和交谈。永远站在你一边。”

人工智能顾问詹姆斯·贝努瓦 (James Benoit) 表示:“我们需要医生开始意识到这些新工具将继续存在,它们为医生和患者提供新的功能。”

Benoit 在加拿大阿尔伯塔大学担任护理学博士后研究员时,于 2 月份发表了一项研究报告,ChatGPT 明显优于 在线症状检查器评估一组医疗场景。 他说:“在这一点上,它们足够准确,值得开始考虑。”

麻烦的邀请

尽管如此,即使是已经证明 ChatGPT 相对可靠性的研究人员对于建议患者完全信任人工智能的当前状态也持谨慎态度。 对于许多医疗专业人士来说,人工智能聊天机器人会带来麻烦:他们列举了一系列与隐私、安全、偏见、责任、透明度以及目前缺乏监管有关的问题。

这些批评者表示,认为人工智能应该被接受是因为它比谷歌博士略有进步,这一主张缺乏说服力。

“设定这个标准有点令人失望,不是吗?” 佛罗里达州立大学专门研究健康法的教授兼医学博士梅森·马克斯说。 他最近写了一篇 意见稿 《美国医学会杂志》上有关人工智能聊天机器人和隐私的文章。

他对 KFF 健康新闻表示:“我不知道说‘好吧,让我们把这个对话式人工智能作为创可贴来弥补这些更深层次的系统性问题’有多大帮助。”

在他看来,最大的危险是市场激励可能会导致人工智能界面的出现,旨在引导患者使用特定的药物或医疗服务。 “公司可能希望将一种特定产品推向另一种产品,”马克斯说。 “人类剥削和数据商业化的潜力是前所未有的。”

开发 ChatGPT 的 OpenAI 公司也敦促谨慎行事。

“OpenAI 的模型并未经过微调以提供医疗信息,”该公司发言人表示。 “你永远不应该使用我们的模型为严重的医疗状况提供诊断或治疗服务。”

加州大学圣地亚哥分校研究的主要作者、计算流行病学家约翰·艾尔斯 (John Ayers) 表示,与其他医疗干预措施一样,重点应该放在患者的治疗结果上。

艾尔斯说:“如果监管机构出面表示,如果你想使用聊天机器人为患者提供服务,则必须证明聊天机器人可以改善患者的治疗结果,那么明天将注册随机对照试验以获得一系列结果。”

他希望看到监管机构采取更紧迫的立场。

艾尔斯说:“一亿人的手机上安装了 ChatGPT,并且现在正在提出问题。无论有没有我们,人们都会使用聊天机器人。”

不过,目前几乎没有迹象表明即将对人工智能的安全性和有效性进行严格测试。 在五月FDA 专员罗伯特·卡利夫 (Robert Califf) 表示,“大型语言模型的监管对我们的未来至关重要”,但除了建议监管机构采取“灵活”的做法外,他几乎没有提供任何细节。

与此同时,比赛正在进行。 7 月,《华尔街日报》报道称,梅奥诊所 与谷歌合作 将 Med-PaLM 2 聊天机器人集成到其系统中。 在六月, WebMD 宣布 它正在与加利福尼亚州帕萨迪纳市的一家初创公司 HIA Technologies Inc. 合作,提供交互式“数字健康助手”。

人工智能与微软必应和谷歌搜索的持续集成表明,谷歌博士已经在被聊天机器人博士取代。

这篇文章的制作者是 KFF健康新闻,发布了 加州健康热线,一个独立编辑的服务 加州医疗保健基金会

1694983864
#ChatGPT #可能比其他在线医疗建议更准确Shots
2023-09-16 09:01:51

See also  曼尼普尔邦暴力事件:CBI 调查能否确保为受害者伸张正义?

Leave a Reply

Your email address will not be published. Required fields are marked *

近期新闻​

编辑精选​