MRI to FDG-PET: Cross-Modal Synthesis Using 3D U-Net for Multi-modal Alzheimer’s Classification
这篇文章发表于2018年的International Workshop on Simulation and Synthesis in Medical Imaging,论文使用了一个3D U-Net结构从3D MRI中合成3D PET,在定量评估上,使用了MAE、PSNR与SSIM三种指标,并且将合成的PET与MRI一同用于AD分类中,相比只用MRI的70.18%分类精度,使用MRI+合成PET后的结果达到了74.43%。
方法
数据集
使用了来自ADNI数据集的384个同时具有MRI和PET影像的患者(其中192个正常,192个AD)。
预处理
首先,使用FSL软件将MR配准到MNI模板空间,它是标准模板。 随后对MR图像进行头盖骨剥离,并归一化到[0,1](避免梯度爆炸和收敛问题)。对PET图像,也配准到相同的MNI模板上,不进行头盖骨剥离,但归一化到[0,1]。值得注意的是,文章提到将处理好的MRI和PET图像使用FSL分割为灰质、白质、脑脊髓(只进行灰质部分的MRI-PET转换?)。并且将预处理好的MRI和PET影像都缩小到了 64 × 64 ×