第一篇: 基于CNN模型的无线胶囊内镜出血图像分类(2021)
目的:将胶囊内镜WCE的图像中的出血图像和其他图像分类出来
方法:利用出血图像的颜色和纹理,使用MobileNet模型提取特征,然后用CNN模型进行训练,构成了BIR结构进行分类。
特别地:①数据样本不均衡,出血图像样本少------进行了图像增强,将出血样本图像翻转;②进行了多个模型对比,有当下优秀的其他分类模型包括机器学习和深度学习对比,还有自身结合的两种模型单拎出来的对比,结果都是BIR模型最优。
结果:效果达到了准确率0.993
其他:无代码来源,有网络结果但是不详细,学习指数8
第二篇:一种用于无线胶囊内窥镜图像中异常检测和定位的深度CNN模型(2021)
![](https://i-blog.csdnimg.cn/blog_migrate/0653869643f977fb7a3aa8119e360db2.png)
目的:对WCE图像进行分类并对异常图像病灶定位,分为四类:息肉、出血、炎症、正常
方法:分为两个阶段①用CNN进行分类先分出四类即息肉、出血、炎症、正常;②对不正常的分类进行病灶定位,其中使用Grad-CAM分割生成热图和SegNet分类像素的概率,两者相结合得出异常区域的定位
特别的:大多数计算机辅助技术都集中在特定的病理检测上; 目前只有少数技术被开发出来来检测WCE图像中的多种异常。有传统的机器学习对WCE图像进行检测,但效果没有深度学习好,所以人们进行了深度学习,但是大多的深度学习对WCE的自动检测,只是针对一种异常情况进行检测,而不是多种情况。然而该研究的自动检测分类于四类且能实现定位,对于CAD系统来说异常区域的定位较为重要。该研究也是和多种方法做结果对比,包括Grad-CAM、SegNet的参数设置的对比
结果:效果能达到98%的精确率
注:该论文结构比较清楚,学习指数9。无源代码。Q1,2区
第三篇:基于时间滤波的无线胶囊内镜小肠检测(2022)(定位出小肠图像)
![](https://i-blog.csdnimg.cn/blog_migrate/dc88ceff3e02d3550c3dedb7982ef3e9.png)
目的:将WCE的图像进行场景分类,即胃、小肠、结肠。主要是分出小肠,以便针对wce快速检测的研究者提供便利
方法:使用ResNet50和时间滤波结合(找到胃和小肠、小肠和结肠的分界)找到小肠,把小肠前端就是胃,后端就是结肠。其中的时间滤波是中值滤波和Savitzkt-Golay滤波器的组合
特别的:文献中说,目前的大多wce算法研究的主要针对的是小肠,使用的数据也是小肠,写了找出小肠部分对现实的意义:①节约时间②方便后续研究。还说了当下研究wce的局限①病例老久时间跨度长②局限一家数据
结果:对小肠的分类准确率为99.8%,时间误差非常小。
注:这个没怎么看懂,主要是不太理解它的算法结构,不知道时间滤波在其中的作用。学习指数8,有代码
第四篇:基于差异的主动学习弱监督出血分割的无线胶囊内镜图像
目的:建立一种新的标签分割方法从而实现减少标签误差,降低人工分标签的成本
方法:①先分割生成三种CAM:优良的、标准的、粗略的三种标签图;②三步法训练差异解码器,利用差异解码得到伪标签提取器(也就是粗略的标签图)③基于模型的发散和CAM发散的CAMPUS标准(这一步骤根本不懂)
特别的:不理解它的方法和结构。它只针对出血的分割
结果:该方法优于最先进的主动学习方法,并达到了与仅标记10%训练数据的训练集训练相当的性能。
注:这一篇有很多我不懂的名词,许多地方没看懂。没代码,学习指数8.5