AI完败于人类医生!研究发现:大模型临床决策草率且不安全,最低正确率仅13%

AI完败于人类医生!研究发现:大模型临床决策草率且不安全,最低正确率仅13%

AIGC动态欢迎阅读

原标题:AI完败于人类医生!研究发现:大模型临床决策草率且不安全,最低正确率仅13%
关键字:解读,模型,医生,数据,患者
文章来源:大数据文摘
内容字数:0字

内容摘要:


大数据文摘授权转载自学术头条
人类医生,会因为 ChatGPT 等大模型纷纷下岗吗?
这种担心,并非空穴来风。毕竟,谷歌的大模型(Med-PaLM 2)已经轻松拿下了美国医学执照考试,达到了医学专家的水平。
然而,一项最新研究表明:在临床方面,人类医生完胜目前的人工智能(AI)模型,无需过于担心个人「失业问题」。
相关研究论文以“Evaluation and mitigation of the limitations of large language models in clinical decision-making”为题,已于近日发表在科学期刊 Nature Medicine 上。该研究发现,即使是目前最先进的大语言模型(LLM)也无法为所有患者做出准确诊断,且表现明显差于人类医生——
医生的诊断正确率为 89%,而 LLM 的诊断正确率仅为 73%。在一个极端情况(胆囊炎诊断)下,LLM 正确率仅为 13%。
更令人惊讶的是,随着对病例信息的了解增多,LLM 的诊断准确度反而会降低,有时甚至会要求进行一些可能对患者有严重健康风险的检查。
化身急诊科医生,LLM 表现如何?尽管


原文链接:AI完败于人类医生!研究发现:大模型临床决策草率且不安全,最低正确率仅13%

联系作者

文章来源:大数据文摘
作者微信:
作者简介:

阅读原文
© 版权声明

相关文章

暂无评论

暂无评论...