Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case Study in Medicine

515 篇文章 3 订阅

已下架不支持订阅

研究发现,通过提示工程,GPT-4在未进行医疗领域微调的情况下,其在医学问答数据集上的性能超越了专业模型Med PaLM 2,错误率降低27%,并在多个基准数据集上取得最佳结果。Medprompt是一种提示策略,它提高了GPT-4在医学及其他领域的能力,如电气工程、机器学习等。
摘要由CSDN通过智能技术生成

本文是LLM系列文章,针对《Can Generalist Foundation Models Outcompete Special-Purpose Tuning? Case Study in Medicine》的翻译。

泛化基础模型能否胜过特殊用途的调优?医学案例研究

摘要

GPT-4等广义基础模型在各种领域和任务中显示出令人惊讶的能力。然而,有一种普遍的假设是,如果没有对具有专业知识的模型进行深入训练,它们就无法与专业能力相匹配。例如,迄今为止,大多数关于医疗能力基准的探索都利用了特定领域的训练,例如BioGPT和Med-PaLM的努力。我们建立在先前对GPT-4在没有特殊训练的情况下的医学挑战基准方面的专业能力的研究基础上。与有意使用简单提示来突出模型的开箱即用功能不同,我们对提示工程进行了系统的探索,以提高性能。我们发现,促进创新可以释放更深层次的专家能力,并表明GPT-4在医学问答数据集方面轻松超过先前的领先结果。我们探索的提示工程方法是通用的,不具体使用领域专业知识,不需要专家策划的内容。我们的实验设计在快速的工程过程中仔细控制过拟合。作为研究的高潮,我们介绍了Medprompt,基于几种提示策略的组合。Medprompt大大增强了GPT-4的性能,并在MultiMedQA套件中的所有九个基准数据集上实现了最先进的结果。该方法大大优于最先进的专家模型,如Med PaLM 2,对该模型的调用减少了一个数量级。与迄今为止使用专业模型实现的最佳方法相比,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

已下架不支持订阅

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UnknownBody

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值