靶区分割论文:Deep Deconvolutional neural network for Target segmentation of nasopharyngeal cancer in Planning computed Tomography images
doi:10.3389/fonc.2017.00315
Author affiliation & publication year: National Cancer Center/Cancer Hospital, 2017
背景:
用于鼻咽癌靶区勾画,提出了端到端的深度反卷积神经网络用于靶区自动分割
方法:
Deep Deconvolutional neural network(DDNN), 包含一个encoder网络和一个decoder网络。encoder用于提取图像数据特征,decoder使用反卷积来恢复原始分辨率。使用dice系数作为评价指标对GTVnx,GTCnd和CTV勾画结果进行评价,并于VGG-16结果进行对比
结论:
- DDNN对GTVnx和CTV的分割结果较为准确,但GTVnd的分割结果较差
- 训练数据需要耗费大量人力进行审查和数据清洗
文章要点总结
网络结构:
input(417 * 417) -> encoder(53 * 53 * 512) -> decoder (53 * 53 * 512) -> output(417 * 417)
评价指标
- Dice系数:
DSC(A,B) = 2|A∩B|/(|A|+|B|) - Hausforff距离:
H(A,B) = max(h(A,B),h(B,A)), where h(A,B) = max(min||a-b||), a∈A,b∈B
实验结果
不同靶区的dice系数及Hauforff距离对比
靶区勾画结果对比
个人理解
本篇文章比较老,发表于2017年,使用的仍然是比较原始的encoder-decoder结构,且仍然为二维网络结构。值得借鉴的是对靶区处理结果的评价标准,数据审查与筛选的重要性