本文是LLM系列文章,针对《Guiding Clinical Reasoning with Large Language Models via Knowledge Seeds》的翻译。
摘要
临床推理是指医生在评估和管理患者时所采用的认知过程。这一过程通常包括建议必要的检查、诊断患者的疾病和选择适当的治疗方法等。准确的临床推理需要广泛的医学知识和丰富的临床经验,这为医生设定了很高的标准。这在发展中国家尤其具有挑战性,因为患者数量巨大,医生资源有限,严重加剧了全球卫生不平等,需要采用自动化的临床推理方法。最近,大型语言模型(LLM)的出现,如ChatGPT和GPT-4,已经证明了它们在临床推理中的潜力。然而,这些LLM容易出现幻觉问题,LLM的推理过程可能与医生的临床决策途径不一致。在这项研究中,我们引入了一个新的框架,即上下文填充(ICP),以增强医学知识的LLM推理。具体来说,我们推断关键的临床推理元素(称为知识种子),并将其用作锚来指导LLM的生成过程。在两个临床问题数据集上的实验验证了ICP显著提高了LLM的临床推理能力。