21.5万张X光,78万个医学问题!医学视觉问答数据集Medical-CXR-VQA来了!

点击下方卡片,关注“CVer”公众号

AI/CV重磅干货,第一时间送达

点击进入—>【Mamba和医学影像】交流群

添加微信号:CVer111,小助手会拉你进群!

扫描下方二维码,加入CVer学术星球!可以获得最新顶会/顶刊上的论文idea和CV从入门到精通资料,及最前沿应用!发论文/搞科研/涨薪,强烈推荐!

d77dababbd03979354015fbcecc3e702.png

转载自:新智元 | 编辑:LRST 好困

【导读】多模态大语言模型(MLLM)在医学视觉问答(VQA)领域展现出巨大潜力,通过提供针对医学图像的具体临床问题的回答,有助于提高医疗专业人员的工作效率。然而,现有医学VQA数据集规模较小且问题过于简单,限制了模型训练和微调。为了解决这一问题,研究团队提出了Medical-CXR-VQA,这是一个大规模的X光胸片问答数据库,覆盖了更广泛的问题类型,包括异常、存在、位置等七种问题类型,为构建更准确的医学VQA模型提供了基础。

多模态大语言模型 (Multimodal Large Language Moodel, MLLM) 以其强大的语言理解能力和生成能力,在各个领域取得了巨大成功。

在医学领域上,视觉问答 (VQA) 是医学多模态大语言模型的一项重要任务,它可以通过回答针对医学图像的具体临床问题,有效提高医疗专业人员的效率。这一类工作可以减轻公共卫生系统的负担,对于医疗资源贫乏的国家来说尤其重要。

然而,现有的医学 VQA 数据集规模较小,仅包含相当于分类任务的简单问题,缺乏语义推理和临床知识。


如图1所示,现有的ImageCLF VQA-MED数据集仅包含「这张图像里主要异常是什么?」和「这张图片里看到了什么?」这两种完全相当于分类任务的问题。

较小的数量以及过于简单的问题使得大语言模型很难在现有数据集上训练以及微调。

37f92c47876159af2f4947276b1cf8b0.png

图1 新数据集与现有的数据集ImageCLF VQA-MED的问题对比

为此,得克萨斯大学阿灵顿分校、理化学研究所、国立卫生研究院、日本癌症研究中心以及东京大学的团队提出了一个大型X光胸片的问答数据库。


Medical-CXR-VQA,这个数据库覆盖了更大范围的问题类型,包含异常、存在、位置、级别、拍摄角度和类型,共7种类型的问题。

4a19d4133bb928ec8dbc8b2cb22db693.png

论文地址:https://authors.elsevier.com/sd/article/S1361-8415(24)00204-4

项目链接:https://github.com/Holipori/Medical-CXR-VQA

同时,作者还提出了一种新的基于LLM的方法来构建数据集。传统的数据集构建方法中主要包括两种类型:人工标注和基于规则的方法。

人工标注方法的典型示例如VQA-RAD,其依赖于大量人力资源,因而数据集的规模往往受限。

只有基于规则的方法,例如ImageCLEF和作者之前的工作Medical-Diff-VQA,才可能生成更大规模数据集。

然而,基于规则的方法对于大覆盖面的信息提取能力仍然有限,所需要提取的信息越多,意味着需要创建的规则越多。

在这里,作者使用LLM来帮助建立规则,使得相同信息覆盖面上比基于传统规则的方法准确率提高62%。

同时,作者还与2位临床专家合作对100个样本的标签进行了全面的评估,进一步帮助微调LLM。

基于该数据集,作者提出了一种新的基于图(Graph)的可解释的医学VQA方法利用图注意力来学习回答临床问题时的逻辑推理路径。

这些学习到的图推理路径可进一步用于 LLM 提示工程(Prompt engineering)和链式思维(Chain-of-thought),这对于进一步微调和训练多模态大语言模型有重要意义。

数据集介绍

全新的Medical-CXR-VQA 数据集包括在215,547张胸部X光片上的780,014个问题答案对,问题含盖异常,存在,位置,级别,拍摄角度和类型,共7种类型的问题。各种问题类型的比例和问题类别请分别见如下图2和表1。

01b925aeb7c6181e187f80f409dc7b53.png

图2 Medical-CXR-VQA 问题类型的统计数据

45ade1832f1756ed40a68099a5a76f66.png

表1 Medical-CXR-VQA 问题类型示例

数据集构建的方法

MIMIC-CXR是一个包括377,110张胸部X光片和277,835个放射学报告的大型数据集。作者基于MIMIC-CXR构建了Medical-CXR-VQA数据集。

传统基于规则构建的方法的一种途径是将数据集构建过程分为两步,第一步是从原始文本信息中提取出结构化的关键信息,例如疾病的位置,类型,级别,存在可能性等等;第二步是基于所提取的关键信息构建问题答案对(QA pairs)。

作者先前的工作Medical-Diff-VQA所采用的就是这种该方法,而这种方法在第一步提取结构化关键信息时非常依赖于预设关键词和规则的覆盖程度。

在千变万化的自然语言表达中,构建出一套可以覆盖所有情形和表达的规则几乎是不可能完成的任务,而借助于LLM其强大的语言理解能力和生成能力,这个问题可以迎刃而解。

这种基于LLM的方法正是针对上述第一步过程的改进。

作者采用了Llama 2 70B 作为核心LLM,以提取放射学报告中的数据。整个数据生成过程可以分为以下几个步骤:

首先,为增强LLM对特定任务的理解,作者对其进行了微调(finetune)。使用GPT-4对100份放射学报告按照精心设计的提示词进行结构化关键信息提取,并将这些信息格式化为JSON。随后,两位专业放射科医生对提取的信息进行了校验和修正,并将这100个医生标注的样本便作为黄金标准用于对Llama 2 70B的微调。

在微调完成后,利用该模型对MIMIC-CXR数据集进行全量的关键信息提取。为了确保提取质量并抑制模型可能的幻觉问题(hallucination),作者实施了一系列后处理操作。这些操作包括:统一疾病名称,从疾病名称中剥离属性词(如位置、类型、级别),并进行属性词的重新分配等。

至此,结构化的关键信息提取已经完成。

为验证基于LLM的方法与传统基于规则的方法在结构化信息上的表现差异,作者对两种方法在100个随机抽取的样本上进行了比较。基于规则的方法使用了与LLM方法相同的信息覆盖面进行关键词提取。

结果如表2所示,基于LLM的方法在高信息覆盖面的信息提取上显示出显著提升,相比基于规则的方法具有断层式的优势。

06abd3e53d56bff92b570294774313a5.png

表2 基于LLM的方法与基于规则的方法在100个结构化信息提取的结果比较

最后,作者基于提取的结构化信息生成了问答对(QA pairs),并由两位人工验证者对500个问答对进行了验证。

验证结果显示,如表3所示,问答对的平均正确率达到了94.8%。

72eb1820d2c412d71cd85bd43c98aa2f.png

表3 数据集人工验证结果

Baseline模型介绍

基于构建的Medical-CXR-VQA数据集,作者提出了一种多模态图推理模型,如图3所示。

针对拍摄胸部X光片时病人姿态变化带来的挑战,作者提出了一种方法,通过定位病人的解剖结构和病灶,并提取这些定位对象的特征作为图的节点,来避免因姿态问题导致的图像不匹配。

8787ae34ae00aaf4de90028f6c3da184.png

图3 模型结构

为了使图网络能够有效理解问题并从检测目标中提取相关节点信息,作者在每个节点中融入了问题的编码特征。


为深入挖掘解剖结构和病灶之间的关系,作者设计了一种包含三种关系的图网络结构:空间关系、语义关系和隐含关系。

- 在空间关系部分,作者根据检测目标的相对位置将其划分为11种类型,并将这些空间关系赋值到节点之间的边上,利用ReGAT(Relation-aware Graph Attention Network)更新节点特征。

- 在语义关系方面,作者与医学专家合作,构建了两种医疗知识图谱:共现知识图谱(Co-occurrence Knowledge Graph)和解剖学知识图谱(Anatomical Knowledge Graph)。

共现知识图谱是通过统计不同疾病的共同出现概率构建的,而解剖学知识图谱则详细分类了病灶与其可能出现的解剖结构之间的关联。

- 对于隐含关系,作者采用全连接图,让模型在所有节点之间挖掘潜在信息。

经过ReGAT计算后,每种图均生成最终的节点特征,这些特征进一步经过平均池化层处理,得到各图的最终特征。然后,将三种图的特征加权相加,生成最终答案特征并用于答案预测。

通过以上方法,作者成功解决了病人姿态变化带来的挑战,同时提升了模型在Medical-CXR-VQA(医学胸片问答)任务中的性能。

如表4所示,该方法全面超越了MMQ和VQAMix这两个先进的医学VQA模型。

3363de838bacedc33cd1f351edc97909.png

表4 与基准模型的结果对比

总结与讨论

为了促进多模态大型语言模型在医学研究中的发展,作者对之前使用传统基于规则方法工作进行了延伸。

利用基于LLM的方法,作者创建了一个名为Medical-CXR-VQA的以临床为驱动的大规模医学VQA数据集,在给定相同的关键词提取集时将数据集构建的准确性提高了62%。

此外,作者还提出了一种用于VQA的多关系图学习方法,该方法通过包含三种不同的图关系,并引入了医学知识图谱来回答问题。

未来,作者还将通过回答问题所显示出的推理路径来构建医学LLM的思维链,并构建医学知识驱动的提示(prompt)来训练医学LLM。

 
 

何恺明在MIT授课的课件PPT下载

 
 

在CVer公众号后台回复:何恺明,即可下载本课程的所有566页课件PPT!赶紧学起来!

ECCV 2024 论文和代码下载

在CVer公众号后台回复:ECCV2024,即可下载ECCV 2024论文和代码开源的论文合集

CVPR 2024 论文和代码下载

在CVer公众号后台回复:CVPR2024,即可下载CVPR 2024论文和代码开源的论文合集

Mamba、多模态和扩散模型交流群成立

 
 
扫描下方二维码,或者添加微信号:CVer111,即可添加CVer小助手微信,便可申请加入CVer-Mamba、多模态学习或者扩散模型微信交流群。另外其他垂直方向已涵盖:目标检测、图像分割、目标跟踪、人脸检测&识别、OCR、姿态估计、超分辨率、SLAM、医疗影像、Re-ID、GAN、NAS、深度估计、自动驾驶、强化学习、车道线检测、模型剪枝&压缩、去噪、去雾、去雨、风格迁移、遥感图像、行为识别、视频理解、图像融合、图像检索、论文投稿&交流、PyTorch、TensorFlow和Transformer、NeRF、3DGS、Mamba等。
一定要备注:研究方向+地点+学校/公司+昵称(如Mamba、多模态学习或者扩散模型+上海+上交+卡卡),根据格式备注,可更快被通过且邀请进群

 
 
▲扫码或加微信号: CVer111,进交流群
CVer计算机视觉(知识星球)来了!想要了解最新最快最好的CV/DL/AI论文速递、优质实战项目、AI行业前沿、从入门到精通学习教程等资料,欢迎扫描下方二维码,加入CVer计算机视觉(知识星球),已汇集上万人!

▲扫码加入星球学习
 
 
▲点击上方卡片,关注CVer公众号
整理不易,请赞和在看
### MIMIC-CXR 数据集介绍 MIMIC-CXR 是一个大型公开可用的数据集,包含了来自贝斯以色列女执事医疗中心(BIDMC)的超过227,000名患者的胸部X图像。这些图像是通过医院内的PACS系统收集而来,并与临床记录相连接[^2]。 该数据集中不仅有丰富的影像资料,还附带了详细的元数据描述,包括患者年龄、性别以及每张图片对应的时间戳等信息。此外,部分病例配有放射科医生撰写的报告文本,这使得研究者能够探索图像和自然语言处理之间的关系。 对于希望利用此资源的研究人员来说,可以通过百度网盘链接访问并下载完整的MIMIC-CXR数据集文件。 ### 使用方法 为了有效使用 MIMIC-CXR 数据集,在开始之前建议先了解以下几个方面: #### 准备工作环境 确保本地计算机已安装必要的软件工具来解析DICOM格式的医学影像文件。Python编程语言及其科学计算库如NumPy、SciPy非常适合此类任务;同时还需要考虑采用专门用于读取DICOM文件的包,比如`pydicom`或`SimpleITK`。 ```python import pydicom ds = pydicom.dcmread('path_to_dicom_file') print(ds.PatientName) ``` #### 加载与预览图像 加载单个 DICOM 文件后可以查看其中存储的各种属性值,例如病人姓名、成像参数等等。更重要的是可以直接显示对应的胸片图像以便直观观察。 ```python import matplotlib.pyplot as plt plt.imshow(ds.pixel_array, cmap=plt.cm.gray) plt.show() ``` #### 处理关联文本 如果想要分析随同发布的放射学报告,则可能需要用到NLP技术提取有价值的语义特征。此时可借助于诸如spaCy这样的开源框架来进行分词、命名实体识别等工作。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值