EEG代码实践:基于图卷积神经网络(GCN)的DEAP数据集分类

本文介绍了使用图卷积神经网络(GCN)对DEAP情感数据集进行情感分类的研究。通过GCN处理基于LSTM的情感数据,进行特征传播和节点分类。实验中,GCN模型在经过特征传播和多层传播后,实现了对脑电图等生理信号的节点表示学习,最终达到63%的分类准确率。文章讨论了实验设置、数据集特点、模型结构和参数,以及实验结果和未来改进方向。
摘要由CSDN通过智能技术生成

2023/5/20 -5/25 脑机接口学习内容一览:

        本文主要针对之前文章基于LSTM网络的DEAP情感数据集情感分类所处理得到的数据,通过图卷积神经网络进行分类,数据集分析同样见前文。


 算法简介(算法原理及结构图)

        图卷积神经网络(Graph Convolutional Network,GCN)是一种用于处理图结构数据的深度学习算法。它扩展了传统的卷积神经网络(CNN)到图领域,可以对节点在图上的特征进行学习和预测。GCN具有广泛的应用,包括社交网络分析、推荐系统、生物信息学等领域。

图 1 GCN概念图

        下面将详细介绍GCN的算法原理和步骤:

图的表示:

        GCN首先将图表示为邻接矩阵A和节点特征矩阵X。邻接矩阵A描述了图中节点之间的连接关系,其中A(i, j)表示节点i和节点j之间是否存在边。节点特征矩阵X包含了每个节点的特征向量,可以是节点的属性或者其他表示。

特征传播:

        GCN的核心思想是通过特征传播来更新节点的表示。在每一层中,GCN根据邻接矩阵A和节点特征矩阵X进行特征传播操作。具体而言,GCN使用邻接矩阵A将节点特征传播到其相邻节点,然后聚合相邻节点的特征信息。这一过程可以表示为以下公式:

                               

        其中,H^l表示第l层节点的表示矩阵,W^l表示第l层的权重矩阵,σ表示激活函数(如ReLU)。公式表示了当前层节点特征的线性变换和激活函数的操作,将节点特征传播到下一层。

节点分类或预测:

        经过多层的特征传播后,GCN得到了每个节点的最终表示。这些节点表示可以用于节点分类、节点聚类或其他任务。对于节点分类任务,可以将节点表示输入到softmax分类器中,预测节点的类别概率。对于节点预测任务,可以通过输出节点表示进行回归或生成任务。

        GCN通过特征传播和聚合操作,利用邻接矩阵和节点特征矩阵进行节点表示的学习和更新。通过多层的特征传播,GCN能够在图结构数据中捕捉节点之间的关系和局部结构,从而实现节点的分类和预测任务。GCN的算法原理和步骤为处理图数据提供了一种有效的深度学习方法。  


 实验设置

数据集介绍(可搜索官网申请数据集)

        DEAP(Database for Emotion Analysis using Physiological Signals)是一个用于情绪分析的生理信号数据库。它包含了多个参与者在观看多个音乐视频片段时的生理数据和情绪评分。DEAP数据集是在实验室环境中收集的,旨在研究情绪与生理信号之间的关联。

图 2 志愿者采集数据现场图

        以下是DEAP数据集的详细介绍:

        数据采集过程:参与者戴上生理传感器设备,包括电极用于测量脑电图(EEG)信号、心电图(ECG)信号、皮肤电导(EDA)信号和肌电图(EMG)信号。参与者被要求观看40个5分钟的音乐视频片段,并在观看期间进行情绪评分。

        生理信号:DEAP数据集包含32个通道的生理信号数据。其中包括14个脑电图信号(采样频率为128Hz)、1个心电图信号(采样频率为256Hz)、8个皮肤电导信号(采样频率为4Hz)、4个肌电图信号(采样频率为128Hz)和1个呼吸信号(采样频率为32Hz)。

        情绪评分:参与者在每个音乐视频片段观看完毕后,根据离散的9点等级评分情绪体验。这些情绪包括愉快、兴奋、愤怒、压力、悲伤、害怕、惊讶、平静和无聊。

图 3 情绪衡量指标一览

        数据标注:除了生理信号和情绪评分外,DEAP数据集还提供了音频和视频特征。音频特征包括梅尔频率倒谱系数(MFCC)和音频能量。视频特征包括帧差分和颜色直方图等。

        数据集规模:DEAP数据集包含来自32位参与者的数据,每位参与者观看完40个音乐视频片段,因此总共有1280个数据点。每个数据点包含用于情绪分析的生理信号数据、情绪评分以及音频和视频特征。

        DEAP数据集的设计使得研究人员能够探索生理信号与情绪之间的关系。通过分析这些数据,可以提取特征、构建模型并进行情绪分类或回归任务,从而增进对情绪体验的理解以及与生理变化的联系。这对于情感计算、情绪识别和心理健康领域的研究非常有用。

                                               文件组织形式(代码部分仅为GCN.py)

实验环境(仅供参考)

调用库

版本

numpy

1.19.5

matplotlib

3.4.2

mne

0.23.0

scipy

1.7.0

torch

1.9.0+cu102

torch_geometric

1.7.0

sklearn

0.24.2

使用算法具体结构和参数

        该模型是一个基于图卷积神经网络(GCN)的分类模型,输入数据为一个图数据,包括节点特征和节点之间的边信息。

        其中GCNConv()是对节点特征进行卷积操作,包括输入特征维度和输出特征维度两个参数。

        模型中使用了两个GCNConv层,分别将输入特征从60维降到32维,再从32维降至输出类型维度(即分类数)。

        在每个GCNConv操作后,使用了ReLU激活函数和dropout正则化。

        最后,使用global_max_pool操作将每个节点的特征进行池化降维得到图的全局特征,再使用log_softmax作为输出,得到每个类别的概率分布。

实验过程

        实验一共分为以下阶段:

        1)获取数据集,提取数据并依据文档将其重整为mne格式,设定脑电通道;

        2)提取频域特征,作为通道节点输入GCN的特征;

        3)生成通道邻接矩阵,根据希尔伯特变换生成相位同步矩阵;

        4)依据以上数据构造GCN能够接收的数据格式进行训练;

        5)预测并输出结果。

实验结果

        训练1000轮之后分类正确率达到63%左右。

        日志信息如下:

epoch is 990

loss is 0.013977153226733208

Accuracy of the network on the test images: 63 %

图 4 预测正确率上升曲线

图 5 训练集loss下降曲线


 总结与展望(实验结果分析)

        在本次实验中,即使是两分类,但是取得的分类准确率并没有达到预期的效果,但实验的大体思路应该是没有问题的。总的来说,问题可能出现在如下方面:

        1)预处理:在本次的数据集上,因为数据集提供方已经给出了预处理的方案,因此我并没有对数据做出进一步的预处理,如果想使分类性能提高,可能需要对数据集做进一步的分析;

        2)GCN:在本次的实验中,对GCN的实践比我想象的要困难一些,虽然在对文献材料的阅读中已经大致了解了GCN的原理,但是在实践的过程中我依然遇到了许多的困难,最重要的是我缺乏能够流畅阅读文档的英语水平,这是一个需要提高的地方。除此之外,对GCN网络的构造我也并没有十足的把握,只是按着教程按部就班的完成任务,可能缺少对该数据集的适配;

        3)深度学习:在深度学习的方面,我对有些地方如超参数等等仍然存在很大的疑惑,需要在之后的学习中继续提高对深度学习原理的认识;

        4)特征选取:在本次实验特征选取方便,我较为简单的选择了常见的频谱功率作为样本的特征,并且用时序构造,可能存在较大的缺陷。

        接下来的学习过程中,我打算根据别人的论文做复现以及学习别人的代码构造模式,以期对深度学习增进了解。


附录代码:

import numpy as np
import mne
import scipy.io as scio
import warnings
import torch
import torch.nn as nn
from torch_geometric.data import DataLoader
import torch.nn.functional as F
from torch_geometric.data import Data
from torch_geometric.nn import GCNConv
import os
from sklearn.model_selection import train_test_split
import logging
from scipy.signal import hilbert
import scipy.sparse as sp
import torch_geometric.nn as pyg_nn
from sklearn.preprocessing import StandardScaler
# 引入tensorboard记录loss和正确率
from torch.utils.tensorboard import SummaryWriter


# 设置日志级别为ERROR或CRITICAL
warnings.filterwarnings("ignore", category=RuntimeWarning)
logging.getLogger('mne').setLevel(logging.ERROR)  # 或者 logging.CRITICAL

# 超参数
num_epochs = 1000            # 训练轮数
num_sample = 60             # 时间轴上时间点数量,num_sample + t_max < 63(数据持续时间)
learing_rate = 0.001        # 学习率
t_max = 1                   # 每一个mne.epoch的持续长度
output_types = 2           # LSTM输出种类数量


def compute_phase_sync_matrix(eeg_data):
    num_channels = 32
    eeg_data = np.transpose(eeg_data)
    phase_sync_matrix = np.zeros((num_channels, num_channels))

    # 计算每个电极的相位
    phase_data = np.angle(hilbert(eeg_data))

    # 计算相位差的余弦值
    for i in range(num_channels):
        for j in range(i+1, num_channels):
            phase_diff = np.abs(phase_data[:, i] - phase_data[:, j])
            cos_phase_diff = np.cos(phase_diff)
            phase_sync = np.mean(cos_phase_diff)
            phase_sync_matrix[i, j] = phase_sync
            phase_sync_matrix[j, i] = phase_sync
    # 将结果转化为list
    # phase_sync_matrix = phase_sync_matrix.tolist()
    # 将矩阵中元素数值大于0的设置为1,小于0的设置为0
    phase_sync_matrix[phase_sync_matrix > 0] = 1
    phase_sync_matrix[phase_sync_matrix < 0] = 0
    return phase_sync_matrix


class Net(torch.nn.Module):
    """构造GCN模型网络"""
    def __init__(self):
        super(Net, self).__init__()
        self.conv1 = GCNConv(60, 32)
        self.conv2 = GCNConv(32, output_types)

    def forward(self, data):    # 前向传播
        x, edge_index, batch = data.x, data.edge_index, data.batch  # 赋值
        x = self.conv1(x, edge_index)
        x = F.relu(x)
        x = F.dropout(x, training=self.training)

        x = self.conv2(x, edge_index)
        x = F.relu(x)
        x = F.dropout(x, training=self.training)

        x = pyg_nn.global_max_pool(x, batch)        # 池化降维出
        return F.log_softmax(x, dim=1)  # softmax可以得到每张图片的概率分布,设置dim=1,可以看到每一行的加和为1,再取对数矩阵每个结果的值域变成负无穷到0


def pre_train():
    # 定义通道列表
    num_channels = 32
    channels = ['Fp1', 'AF3', 'F7', 'F3', 'FC1', 'FC5', 'T7', 'C3', 'CP1', 'CP5', 'P7', 'P3', 'Pz', 'PO3', 'O1', 'Oz',
                'O2', 'PO4', 'P4', 'P8', 'CP6', 'CP2', 'C4', 'T8', 'FC6', 'FC2', 'F4', 'F8', 'AF4', 'Fp2', 'Fz', 'Cz']
    # 这里初始空值维度设置为第一个文件第一个视频中的维度,便于拼接,之后需要去掉
    features = np.empty((0, 60))  # 创建一个空的 features 数组
    labels = []
    graph_dataset = []
    matrix_dataset = []
    # 要遍历的文件夹路径
    folder_path = "data/data_preprocessed_matlab"
    # 遍历文件夹下的文件名
    file_names = [f for f in os.listdir(folder_path) if os.path.isfile(os.path.join(folder_path, f))]
    # print(file_names)
    test_file = ['s01.mat', 's02.mat', 's03.mat', 's04.mat', 's05.mat', 's06.mat', 's07.mat', 's08.mat', 's09.mat']
    for i in test_file:
        path = folder_path + "/" + i
        input_features, y, per_matrix = dataset(path)
        # 取得每个文件的特征和标签
        features = np.vstack((features, input_features))
        labels = np.append(labels, y)
        # 将每个文件的相位同步矩阵存入matrix_dataset
        for m in per_matrix:
            # 重复添加5次
            for n in range(5):
                matrix_dataset.append(m)
        # print(features.shape)
        # print(labels.shape)
    print("the shape of features is:", features.shape)
    scaler = StandardScaler()
    features = scaler.fit_transform(features)
    print("the shape of labels is:", labels.shape)
    print("the shape of matrix_dataset is:", len(matrix_dataset))

    # 构建可以输入图卷积神经网络中的相位同步矩阵,每32条数据(一个视频)构建一个矩阵(需修改)
    no = 0
    print(matrix_dataset)
    # print("int(features.shape[0]/32):", int(features.shape[0]/32))
    for i in range(int(features.shape[0]/32)):
        graph_matrix = matrix_dataset[no]
        edge_index_temp = sp.coo_matrix(graph_matrix)
        indices = np.vstack((edge_index_temp.row, edge_index_temp.col))
        edge_index = torch.LongTensor(indices)
        x = torch.FloatTensor(features[32*i:32*(i+1), :])
        y = torch.tensor(labels[i]).long()
        data = Data(x=x, edge_index=edge_index, y=y)
        graph_dataset.append(data)
        no += 1

    # 划分训练集和测试集
    train_dataset, test_dataset = train_test_split(graph_dataset, test_size=0.2, random_state=42)
    # 构建模型实例
    model = Net()  # 构建模型实例
    optimizer = torch.optim.Adam(model.parameters(), lr=learing_rate)           # 优化器,参数优化计算
    train_loader = DataLoader(train_dataset, batch_size=40, shuffle=False)      # 加载训练数据集,训练数据中分成每批次40个图片data数据
    test_loader = DataLoader(test_dataset, batch_size=40, shuffle=False)        # 读取测试数据集数据

    # 定义测试函数
    def evaluate(loader):   # 构造测试函数
        # model.eval()        # 表示模型开始测试
        with torch.no_grad():
            for data in loader:             # 读取测试数据集单个data数据
                pred = model(data).numpy()  # 将数据导入之前构造好的模型
                label = data.y.numpy()      # 获取测试集的图片标签
        # 将preds转化为数组形式
        pred = np.array(pred)
        label = np.array(label)
        return pred, label
    # 训练模型
    for epoch in range(num_epochs):  # 训练所有训练数据集n次
        loss_all = 0
        # 一轮epoch优化的内容
        for data in train_loader:
            optimizer.zero_grad()   # 梯度清零
            output = model(data)    # 前向传播,把一批训练数据集导入模型并返回输出结果
            label = data.y          # 40张图片数据的标签集合
            # print("label is", label)
            # print("output is", output.shape)
            loss = F.nll_loss(output, label)
            loss.backward()             # 反向传播
            loss_all += loss.item()     # 将最后的损失值汇总
            optimizer.step()            # 更新模型参数
        if epoch % 10 == 0:
            print("epoch is", epoch)
            print("loss is", loss.item())
            # 输出测试集准确率
            correct = 0
            total = 0
            with torch.no_grad():
                for data in test_loader:
                    labels = data.y
                    outputs = model(data)
                    _, predicted = torch.max(outputs.data, 1)
                    total += labels.size(0)
                    correct += (predicted == labels).sum().item()
            print('Accuracy of the network on the test images: %d %%' % (100 * correct / total))
            writer.add_scalar('Train/Loss', loss, epoch)
            writer.add_scalar('Test/Accuracy', 100 * correct / total, epoch)


def eeg_power_band(epochs):
    """
    该函数根据epochs的特定频段中的相对功率来创建eeg特征
    输入数据为被试观看一个视频中的raw
    根据需求需要把该函数进行改动
    psds_band之前的特征格式为(epoch数, 通道数)
    新生成特征格式应当为(通道数, epoch数个某频段相对功率)

    输入图卷积神经网络中的数据应当为(通道数, 特征)
    与其相关的脑网络矩阵为(通道数, 通道数)
    每一个视频数据对应一个label,故最后输入网络的数据应当为(通道数, 某频域相对功率特征)
    因此下面部分的label区域(数量为视频数量)应当做出5(频域数量)的拓展
    """
    # 特定频带
    FREQ_BANDS = {"delta": [0.5, 4.5],
                  "theta": [4.5, 8.5],
                  "alpha": [8.5, 11.5],
                  "sigma": [11.5, 15.5],
                  "beta": [15.5, 30]}
    spectrum = epochs.compute_psd(method='welch', picks='eeg', fmin=0.5, fmax=30., n_fft=128, n_overlap=16)
    psds, freqs = spectrum.get_data(return_freqs=True)
    # 归一化 PSDs
    psds /= np.sum(psds, axis=-1, keepdims=True)
    X = []
    for fmin, fmax in FREQ_BANDS.values():
        psds_band = psds[:, :, (freqs >= fmin) & (freqs < fmax)].mean(axis=-1)
        # print("psd_band.shape is ", psds_band.shape)
        """
        (60个epoch,(每一个epoch有32个通道,每一个通道的某个频段))
        """
        X.append([list(item) for item in zip(*psds_band)])
        # print("X.shape is ", np.array(X).shape)
    return X


def label_trans(raw_label):
    # 对值进行二进制编码(小于5.5为0, 大于为1)
    # 该函数在调整分类类别的时候需要跟随目标类别进行调整
    binary_arr = np.where(raw_label < 5.5, 0, 1)    # 小于 5.5 的值设置为 0,大于等于 5.5 的值设置为 1
    decimal_arr = binary_arr.dot([1, 0, 0, 0])      # 将二进制数组转化为十进制数组
    # print(decimal_arr)  # 输出生成的数组
    repeated_arr = np.repeat(decimal_arr, 5)
    return repeated_arr


def dataset(file):
    """
    dataset key_word:
    labels.shape    (40, 4)
    解释:
    labels用于标记被试看到每一个视频时的状态
    第二维度中的四个数据代表四个评价标准arousal(唤醒度), valence(愉悦度), dominance(支配度), like(喜爱度)
    data.shape      (40, 40, 8064)
    解释:
    第一个维度代表40段观看视频产生的脑电数据
    第二个维度代表每段数据存在40个通道
    第三个维度为采样点,长度在63s左右
    根据官方网站得采样率为128hz
    """
    real_feature = []
    original_data = scio.loadmat(file)
    # print(original_data.keys())
    sample_data = original_data['data']
    sample_labels = original_data['labels']
    sample_data = sample_data[:, :32, :]
    # 计算每一个视频中的相位同步矩阵
    per_matrix = []
    for i in range(sample_data.shape[0]):
        matrix = compute_phase_sync_matrix(sample_data[i])
        per_matrix.append(matrix)
    k = sample_data.shape[0]
    # 每个人观看40个视频,每个视频有40个通道(取前32个EEG通道),每个通道有8064个采样点
    # print("sample_data.shape is ", sample_data.shape)
    # print("sample_labels.shape is ", sample_labels.shape)
    # 根据官方文档设置通道
    channel_names = ['Fp1', 'AF3', 'F7', 'F3', 'FC1', 'FC5', 'T7', 'C3',
                    'CP1', 'CP5', 'P7', 'P3', 'Pz', 'PO3', 'O1', 'Oz',
                    'O2', 'PO4', 'P4', 'P8', 'CP6', 'CP2', 'C4', 'T8',
                    'FC6', 'FC2', 'F4', 'F8', 'AF4', 'Fp2', 'Fz', 'Cz']
    # 设置采样率
    sfreq = 128
    info = mne.create_info(channel_names, sfreq)

    # 设置所有通道种类为eeg
    channel_types = {}
    for i in channel_names:
        channel_types[i] = 'eeg'

    # 将观看者看第i个视频的感受提取出来创建raw
    for i in range(0, k):
        slice_data = sample_data[i, :, :]
        raw = mne.io.RawArray(slice_data, info)
        raw.set_channel_types(channel_types)
        """
        查看EEG信号图
        raw.plot(title="The "+str(i)+" raw", bgcolor='pink', color='steelblue', n_channels=10, duration=10)
        plt.pause(0)
        """
        # 构建事件数组
        events = np.zeros((num_sample, 3))
        for i in range(num_sample):
            events[i][0] = i*sfreq
        # print(events)
        events = events.astype(int)
        # 每一个epoch长度为从事件开始的采样点到 t_max 秒后的采样点,这里就不设置基线了
        epochs = mne.Epochs(raw=raw, events=events, tmin=0, tmax=t_max, preload=True, baseline=None)
        # print(epochs)
        features = eeg_power_band(epochs)
        features = np.array(features)
        # print("features.shape is ", features.shape)
        real_feature.append(features)
        # print("real_feature.shape is ", np.array(real_feature).shape)

    # print("real_feature.shape is ", np.array(real_feature).shape)
    # print("real_feature is ", real_feature)
    real_feature = np.array(real_feature).reshape(-1, 60)
    # print("new real_feature is ", real_feature)

    y = label_trans(sample_labels)      # 重整labels
    # print("y.shape is ", y.shape)
    # print("y is ", y)
    # 返回当前文件下的40个视频中的特征以及labels
    return real_feature, y, per_matrix


def main():
    pre_train()


if __name__ == '__main__':
    writer = SummaryWriter('logs')
    main()
    writer.close()

参考文献:

[1]何时能懂你的心——图卷积神经网络(GCN)

[2]基于Pytorch的图卷积网络GCN实例应用及详解

新手难免错漏,请多包含,仅供参考

评论 35
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值