论文阅读合集1

1. Intrapartum deceleration and acceleration areas are associated with neonatal encephalopathy

yued 

本文研究了连续胎心图(CTG)上的减速和加速区域与新生儿脑病的关联。研究发现,NE与总减速区域的增加、总加速区域的减少以及加速-减速比的降低显著相关。这些发现表明,计算机实时分析胎儿心率图可能有助于使这些测量成为更有效的临床工具。这篇论文的研究点是探讨连续胎儿心电图(CTG)上的减速和加速区域与新生儿脑病的关联。研究发现,新生儿脑病与减速和加速区域的总面积有关。本文是一项单中心、回顾性病例对照研究,旨在比较低风险妊娠(孕周35周或以上)并发中度至重度新生儿脑病的连续胎儿心电图特征,以及每个病例的两个匹配对照组。控制组与病例组按孕周和脐带血pH进行匹配。作者通过计算减速和加速区域以及两者之间的比率来分析产程期CTG记录。作者发现,NE与总减速面积增加、总加速面积减少以及加速-减速比降低显著相关。

2. A CNN-RNN unified framework for intrapartum cardiotocograph classification

这篇论文的研究点是:提出了一种基于1D-CNN和双向GRU混合模型的胎心率监测方法,将胎儿心率和宫缩信号作为输入特征,用于分类胎儿健康状态。该方法在评估胎儿健康状态方面是有效的,并可以帮助产科医生进行临床决策。

3. A deep learning model with data integration of ultrasound contrast‑enhanced micro‑flow cines, B‑mode images, and clinical parameters for diagnosing significant liver fibrosis in patients with chronic hepatitis B

这篇论文的研究目的是开发和研究一种深度学习模型,该模型将超声造影增强微流动(CEMF)影像、B模式影像和患者临床参数进行数据整合,以改善慢性乙型肝炎(CHB)患者中重度肝纤维化(≥F2)的诊断。该模型包含三个卷积神经网络分支,用于自动提取超声CEMF影像、B模式影像和临床数据的特征。提取的特征在模型的后端进行融合,以进行决策。该模型的诊断性能通过五倍交叉验证进行评估,并与其他方法在接收器操作特征曲线下面积(AUC)方面进行比较,以组织病理学结果作为参考标准。DIDL模型的平均AUC为0.901 [95% CI,0.857-0.939],显著高于其他方法,包括仅使用CEMF影像(0.850 [0.794-0.893])、B模式影像(0.813 [0.754-0.862])或临床数据(0.757 [0.694-0.812])训练的模型,以及常规TIC方法(0.752 [0.689-0.808])、APRI(0.792 [0.734-0.845])、FIB-4(0.776 [0.714-0.829])和两名放射科医师的视觉评估(分别为0.812 [0.754-0.862]和0.800 [0.739-0.849]),所有ps< 0.01,DeLong测试。该研究表明,DIDL模型具有超声CEMF影像、B模式影像和临床参数的数据整合,并在CHB患者中诊断重度肝纤维化方面表现出良好的性能。

4. Deep multimodal predictome for studying mental disorders

这篇论文的研究目的是通过结构和功能性神经影像以及基因组数据的多模态分类框架来提高精神障碍的分类,并探索与精神障碍相关的潜在神经和生物机制。该研究的创新点在于提出了一种新的深度学习模型,该模型包括多层前馈网络、自编码器、双向长短时记忆单元和线性注意力模块,用于特征学习和实现融合阶段的自适应控制单元。该模型在预测精神分裂症方面表现出了92%p < .0001)的准确性,优于应用于单模态或多模态数据的其他几种最先进的模型。

5. Multimodal Emotion Recognition Based on Cascaded Multichannel and Hierarchical Fusion

这篇论文的研究目的是提出一种新的多模态情感识别框架,称为基于级联多通道和分层融合的多模态情感识别(CMC-HF)。该框架同时利用视觉、语音和文本信号作为多模态输入,旨在从不同模态中提取深层情感特征并进行融合。该框架包括三个级联通道和一个改进的分层融合模块,以提高情感识别和分类准确性。实验结果表明,与现有最先进方法相比,CMC-HF模型在IEMOCAP数据集的四个类别的准确率上提高了近2%3.2%,在CMU-MOSI数据集的平均类别准确率上提高了0.9%2.5%。级联特征提取方法和分层融合方法对多模态情感识别有重要贡献,表明三种模态包含更深层次的信息交互。因此,该模型具有更好的整体性能,实现了更高的识别效率和更好的鲁棒性。

6. Multimodal fusion model for classifying placenta ultrasound imaging in pregnancies with hypertension disorders

这篇论文的研究目的是提出一种多模态融合模型,以辅助传统的视觉诊断,评估妊娠高血压障碍(HDP)的胎盘特征。该研究分析和比较了正常和HDP妊娠的胎盘特征,并提出了一种多模态融合深度学习模型,用于区分和表征HDP到正常妊娠的胎盘特征。该研究包括654名孕妇,其中包括75名患有HDP的孕妇。从所有患者的常规产科检查中收集了胎盘的灰度超声图像(GSIs)和微流图像(MFIs)。在智能提取和特征融合的基础上,经过大量训练和优化,引入了名为GMNet(基于GSIsMFIs的智能网络)的分类模型,用于区分正常和HDP妊娠的胎盘特征。通过Uniform Manifold Approximation and Projection for Dimension ReductionUMAP)可视化了由深度卷积神经网络(DCNNs)提取的胎盘特征的分布。使用灵敏度、特异性、准确性和曲线下面积(AUC)等指标对模型进行评分。最后,随机选择胎盘组织样本进行显微镜分析,以证明GMNet模型的可解释性和有效性。该研究表明,GMNet模型可以敏感地识别HDP孕妇胎盘微结构中的异常变化。

7. Multimodal interaction enhanced representation learning for video emotion recognition

这篇论文的研究目的是提出一种多模态交互增强表示学习框架,用于从面部视频中识别情感。该框架首先设计了一个语义增强模块,以引导音频/视觉编码器使用文本中的语义信息,然后采用多模态瓶颈Transformer进一步加强音频和视觉表示,通过建模两个特征序列之间的跨模态动态交互来实现。该论文的创新点在于提出了一种新的多模态交互增强表示学习框架,该框架可以更好地利用文本中的语义信息,同时保留高级全局语义。实验结果表明,该方法优于融合音频、视觉和文本模态特征或决策的最新模型。

8.这篇有点像Central net

Skin lesion classification based on two-modal images using a multi-scale fully-shared fusion network

这篇论文的研究目的是针对皮肤病的多模态图像进行计算机辅助诊断。由于皮肤病的复杂性,基于多模态图像的皮肤病计算机辅助诊断被认为是一项具有挑战性的任务。临床图像和皮肤镜图像是常用于临床诊断皮肤病的两种模态,它们的特征互补促进了计算机辅助诊断领域中多模态分类的研究。然而,大多数现有方法都集中在模态之间的融合上,忽略了每个模态内部信息之间的互补关系。因此,本文提出了一种基于临床图像和皮肤镜图像的多模态模型来解决这个问题。该模型采用了多尺度全共享融合网络(MFF-Net),通过深度和浅层特征结合来减少高级特征映射中空间信息的损失,并通过通道级串联和使用完全共享融合策略来整合临床图像和皮肤镜图像的特征映射。实验结果表明,该方法在四类两种模态皮肤疾病数据集上取得了最高平均准确率72.9%,优于单模态和多模态方法,准确率分别提高了7.1%3.4%

9. Applications of artificial intelligence in obstetrics(综述)

这篇论文的研究目的是介绍目前在产科诊断中使用的人工智能系统,如胎儿心电图、超声波和磁共振成像等。它还展示了这些方法的发展和临床应用。人工智能是一种新技术,分析大量数据以协助疾病预测、预防和诊断,以及患者监测。在产科领域,人工智能已经被积极应用并融入到我们的日常医疗实践中。人工智能可以帮助克服与产科诊断相关的各种问题。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值