Deep Learning × ECG (4) :利用卷积神经网络CNN对心律失常ECG数据进行分类

本文主要就是介绍搭建模型和模型训练了!!

1. AAMI 标准

根据 AAMI (简称:美国心脏病协会) 提供的标准:将心拍分为五大类,分别是N、S、V、F和Q,五大类又包含了一些小类;具体如下,大家啊可以参考一下:

在这里插入图片描述

在目前大多数论文的工作中,都是针对于以上五大类进行分类。但由于S类和V类的特征很相似,往往导致准确率降低,不是很高;当然,也有很多工作专门针对于这两类。

全部代码可看结尾。

2. 模型搭建和训练

本篇博客则主要简单介绍一下以卷积神经网络CNN为代表的深度学习模型对N、L、R、A和V五大类进行分类。具体如下(代码的解释已经在注释中,大家可以参考):

实验所用数据集:MIT-BIH Arrhythmia Database

import wfdb
import pywt
import seaborn
import numpy as np
import tensorflow as tf
import matplotlib.pyplot as plt
from sklearn.metrics import confusion_matrix

# 测试集在数据集中所占的比例
RATIO = 0.2

# 小波去噪预处理
def denoise(data):
    # 小波变换
    coeffs = pywt.wavedec(data=data, wavelet='db5', level=9)
    cA9, cD9, cD8, cD7, cD6, cD5, cD4, cD3, cD2, cD1 = coeffs
    # 阈值去噪
    threshold = (np.median(np.abs(cD1)) / 0.6745) * (np.sqrt(2 * np.log(len(cD1))))
    cD1.fill(0)
    cD2.fill(0)
    for i in range(1, len(coeffs) - 2):
        coeffs[i] = pywt.threshold(coeffs[i], threshold)
    # 小波反变换,获取去噪后的信号
    rdata = pywt.waverec(coeffs=coeffs, wavelet='db5')
    return rdata

# 读取心电数据和对应标签,并对数据进行小波去噪
def getDataSet(number, X_data, Y_data):
    ecgClassSet = ['N', 'A', 'V', 'L', 'R']
    # 读取心电数据记录
    print("正在读取 " + number + " 号心电数据...")
    # 读取MLII导联的数据
    record = wfdb.rdrecord('D:/MIT-BIH-360/' + number, channel_names=['MLII'])
    data = record.p_signal.flatten()
    rdata = denoise(data=data)
    # 获取心电数据记录中R波的位置和对应的标签
    annotation = wfdb.rdann('D:/MIT-BIH-360/' + number, 'atr')
    Rlocation = annotation.sample
    Rclass = annotation.symbol
    # 去掉前后的不稳定数据
    start = 10
    end = 5
    i = start
    j = len(annotation.symbol) - end
    # 因为只选择NAVLR五种心电类型,所以要选出该条记录中所需要的那些带有特定标签的数据,舍弃其余标签的点
    # X_data在R波前后截取长度为300的数据点
    # Y_data将NAVLR按顺序转换为01234
    while i < j:
        try:
            # Rclass[i] 是标签
            lable = ecgClassSet.index(Rclass[i])
            # 基于经验值,基于R峰向前取100个点,向后取200个点
            x_train = rdata[Rlocation[i] - 100:Rlocation[i] + 200]
            X_data.append(x_train)
            Y_data.append(lable)
            i += 1
        except ValueError:
            i += 1
    return

# 加载数据集并进行预处理
def loadData():
    numberSet = ['100', '101', '103', '105', '106', '107', '108', '109', '111', '112', '113', '114', '115',
                 '116', '117', '119', '121', '122', '123', '124', '200', '201', '202', '203', '205', '208',
                 '210', '212', '213', '214', '215', '217', '219', '220', '221', '222', '223', '228', '230',
                 '231', '232', '233', '234']
    dataSet = []
    lableSet = []
    for n in numberSet:
        getDataSet(n, dataSet, lableSet)
    # 转numpy数组,打乱顺序
    dataSet = np.array(dataSet).reshape(-1, 300)
    lableSet = np.array(lableSet).reshape(-1, 1)
    train_ds = np.hstack((dataSet, lableSet))
    np.random.shuffle(train_ds)
    # 数据集及其标签集
    X = train_ds[:, :300].reshape(-1, 300, 1)
    Y = train_ds[:, 300]
    # 测试集及其标签集
    shuffle_index = np.random.permutation(len(X))
    # 设定测试集的大小 RATIO是测试集在数据集中所占的比例
    test_length = int(RATIO * len(shuffle_index))
    # 测试集的长度
    test_index = shuffle_index[:test_length]
    # 训练集的长度
    train_index = shuffle_index[test_length:]
    X_test, Y_test = X[test_index], Y[test_index]
    X_train, Y_train = X[train_index], Y[train_index]
    return X_train, Y_train, X_test, Y_test

# 构建CNN模型
def buildModel():
    newModel = tf.keras.models.Sequential([
        tf.keras.layers.InputLayer(input_shape=(300, 1)),
        # 第一个卷积层, 4 个 21x1 卷积核
        tf.keras.layers.Conv1D(filters=4, kernel_size=21, strides=1, padding='SAME', activation='tanh'),
        # 第一个池化层, 最大池化,4 个 3x1 卷积核, 步长为 2
        tf.keras.layers.MaxPool1D(pool_size=3, strides=2, padding='SAME'),
        # 第二个卷积层, 16 个 23x1 卷积核
        tf.keras.layers.Conv1D(filters=16, kernel_size=23, strides=1, padding='SAME', activation='relu'),
        # 第二个池化层, 最大池化,4 个 3x1 卷积核, 步长为 2
        tf.keras.layers.MaxPool1D(pool_size=3, strides=2, padding='SAME'),
        # 第三个卷积层, 32 个 25x1 卷积核
        tf.keras.layers.Conv1D(filters=32, kernel_size=25, strides=1, padding='SAME', activation='tanh'),
        # 第三个池化层, 平均池化,4 个 3x1 卷积核, 步长为 2
        tf.keras.layers.AvgPool1D(pool_size=3, strides=2, padding='SAME'),
        # 第四个卷积层, 64 个 27x1 卷积核
        tf.keras.layers.Conv1D(filters=64, kernel_size=27, strides=1, padding='SAME', activation='relu'),
        # 打平层,方便全连接层处理'
        tf.keras.layers.Flatten(),
        # 全连接层,128 个节点 转换成128个节点
        tf.keras.layers.Dense(128, activation='relu'),
        # Dropout层,dropout = 0.2
        tf.keras.layers.Dropout(rate=0.2),
        # 全连接层,5 个节点
        tf.keras.layers.Dense(5, activation='softmax')
    ])
    return newModel

def plotHeatMap(Y_test, Y_pred):
    con_mat = confusion_matrix(Y_test, Y_pred)
    # 绘图
    plt.figure(figsize=(4, 5))
    seaborn.heatmap(con_mat, annot=True, fmt='.20g', cmap='Blues')
    plt.ylim(0, 5)
    plt.xlabel('Predicted labels')
    plt.ylabel('True labels')
    plt.show()


def main():
    # X_train,Y_train为所有的数据集和标签集
    # X_test,Y_test为拆分的测试集和标签集
    X_train, Y_train, X_test, Y_test = loadData()
    print(X_train.shape)

    model = buildModel()
    model.compile(optimizer='adam',
                  loss='sparse_categorical_crossentropy', metrics=['accuracy']
                  # metrics: 列表,包含评估模型在训练和测试时的性能的指标,典型用法是metrics=[‘accuracy’]。
                  )
    model.summary()

    # 训练与验证
    model.fit(X_train, Y_train, epochs=30, batch_size=128, validation_split=RATIO)  # validation_split 训练集所占比例
    # 预测
    Y_pred = model.predict(X_test)
    print(Y_pred)

if __name__ == '__main__':
    main()


根据结果来看,准确率最后可以达到 98%~99% 左右。

在这里插入图片描述

由于以 心律失常ECG数据 为代表的医疗数据其本质上是一种时间序列数据,也可以使用RNN、LSTM等时间序列模型进行训练,可以取得较好的训练效果。


3. 模型搭建环境

根据一些同学反馈,现将环境版本公布如下:

  • wfdb 3.4.1
  • PyWavelets(pywt) 1.1.1
  • seaborn 0.11.2
  • numpy 1.19.5
  • tensorflow 2.6.3

全部代码:https://github.com/AwakenPurity/DeepL-Learning-ECG-Classification

  • 13
    点赞
  • 95
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 39
    评论
### 回答1: ECG分析是一种用于检测心脏疾病的方法,而基于深度学习ECG心律失常分类则是一种新兴的技术。这种技术利用深度学习算法对ECG数据进行分析和分类,以便更准确地诊断心脏疾病。这种技术的入门需要掌握深度学习的基本原理和ECG数据的基本知识,同时需要了解常见的心律失常类型及其特征。通过学习和实践,可以逐步掌握这种技术,并在实际应用中取得良好的效果。 ### 回答2: ECG分析是指通过对心电图(ECG)数据进行处理和分析,得出心脏的生理状况和心律失常的情况。而基于深度学习ECG心律失常分类则是一种新兴的、快速而准确的心律失常诊断方法,可以在短时间内对不同类型的心律失常进行自动识别和分类。下面将介绍ECG分析中使用深度学习技术的基本原理。 ECG信号是一种时间序列信号,包含不同的波形特征,例如P波、QRS波和T波等,这些波形特征反映了心跳时心肌的电生理变化。基于深度学习ECG心律失常分类可以分为三个步骤: 第一步是数据预处理,包括数据清洗、信噪比提高等,这是保证模型准确性的关键步骤。 第二步是特征提取,这是深度学习方法的核心。传统的特征提取方法是基于图像处理、信号处理等领域,需要大量的人工设计。而基于深度学习的特征提取则是通过网络学习参数,自动地找到最能区分不同心律失常的特征。常见的网络结构包括卷积神经网络(CNN)和循环神经网络(RNN)等。 第三步是模型训练和测试。通常,我们将数据集划分为训练集、验证集和测试集三部分,用训练集来训练模型,用验证集来选择最优的模型超参数,用测试集来测试模型的准确性。模型的准确性可以用准确率、召回率、F1值等指标进行评价。 总之,基于深度学习ECG心律失常分类具有高效、准确、自动化等优势,可以大大提高ECG信号的处理速度和心律失常的诊断准确性,对心血管疾病的早期预防和治疗具有重要意义。 ### 回答3: ECG(电生理图)是评估心脏健康状况的重要工具。ECG在医生的指导下具有高精度和可靠性,但是ECG检查的数量庞大,医生需要花费大量时间和精力来进行ECG分析。深度学习技术已经被应用于ECG分析中,以实现较高的自动化程度。 基于深度学习ECG心律失常分类技术旨在通过机器学习来处理ECG数据,以自动分类心律失常。常见的ECG心律失常包括心房颤动、心室颤动、心房扑动、快速地、慢速的、心动过缓、心动过速等等。 ECG数据的分析可以通过传统的机器学习方法实现,但这种方法的准确度和性能通常较低。深度学习技术可以在更高水平上对ECG数据进行分析,从而实现更准确、更可靠的分类。 基于深度学习ECG心律失常分类技术通常需要三个关键组件: 1. 数据集:深度学习模型需要大量的数据进行训练。ECG数据集应具有多样性,因为ECG数据在不同人群中可能存在差异。 2. 深度学习模型:深度学习模型是ECG分类的核心。现在有许多ECG分类模型可以使用,例如卷积神经网络CNN)和递归神经网络(RNN)。 3. 训练和测试:训练和测试是深度学习模型的关键步骤。在训练期间,模型从数据集中学习数据的特征和模式。测试过程评估训练后的模型的性能,以确定它在分类ECG心律失常方面的精度和可靠性。 总之,基于深度学习ECG心律失常分类技术通过自动化分类ECG数据,可以帮助医生更快速、准确地诊断ECG心律失常。尽管仍需更多的研究和开发,但这项技术的潜力很大,可以提高医疗保健的效率和质量。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 39
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Woo Tzins

谢谢您的鼓励

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值