图解Polysomnography 多导睡眠图的加载数据、特征工程、设计scikit-learn转换器的代码调试过程

在这里插入图片描述

读取PSG数据和催眠图来创建一个原始对象
在这里插入图片描述
选择两个受试者实验对象ALICE, BOB(该名字并非实验中的真实名,这里是为了方便才临时取的名字)

在这里插入图片描述
和上一个方框类似,只是recording butong
在这里插入图片描述
绘制事件数据
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

在这里插入图片描述

第二步:加载数据
在这里,我们从两个主题下载数据,最终目标是获得时间片段(epochs)及其相关的地面真理。

MNE-Python为我们提供了mne.datasets.sleep_physionet.age.fetch_data(), 可以方便地从Sleep Physionet数据集下载数据。
给定主题和记录的列表,提取程序将下载数据并为每个主题提供数据, 一对文件: -PSG.edf包含多导睡眠图。来自EEG头盔的原始数据, -Hypnogram.edf包含专家记录的注释。

然后,将这两个对象合并到mne.io.Raw对象中,就可以根据注释的描述提取事件以获得时间片段(epochs)。

mne.datasets.sleep_physionet.age.fetch_data
"""
​
可以通过
mne.datasets.sleep_physionet.age.fetch_data(subjects,recording,path)
来获取PhysioNet多导睡眠图数据集文件。
​
subjects:  
表示想要使用哪些受试者对象,可供选择的受试者对象范围为0-19。
​
recording:  
表示夜间记录的编号(索引),有效值为:[1]、[2]或[1、2]。
​
path:  
PhysioNet数据的存放地址,如果没有给定,则加载默认存放数据的地址;
​
如果默认存放数据集的地址不存在数据,则从网络中下载相关数据。  
【困惑】怎么知道默认网络链接的
​
现在还是这个问题
​
"""
'\n\n可以通过\nmne.datasets.sleep_physionet.age.fetch_data(subjects,recording,path)\n来获取PhysioNet多导睡眠图数据集文件。\n\nsubjects:  \n表示想要使用哪些受试者对象,可供选择的受试者对象范围为0-19。\n\nrecording:  \n表示夜间记录的编号(索引),有效值为:[1]、[2]或[1、2]。\n\npath:  \nPhysioNet数据的存放地址,如果没有给定,则加载默认存放数据的地址;\n\n如果默认存放数据集的地址不存在数据,则从网络中下载相关数据。  \n【困惑】怎么知道默认网络链接的\n\n现在还是这个问题\n\n'
# 选择两个受试者实验对象ALICE, BOB(该名字并非实验中的真实名,这里是为了方便才临时取的名字)
​
ALICE, BOB = 0, 1 #【python学习】可以这么赋值# 加载ALICE, BOB的实验数据文件[alice_files, bob_files] = fetch_data(subjects=[ALICE, BOB], 
                                      recording=[2],
#                                       'E:\\mne_data\\physionet-sleep-data'
                                     )
# [alice_files, bob_files] = mne.datasets.sleep_physionet.age.fetch_data(subjects=[ALICE, BOB], 
#                                       recording=[2],
#                                       'E:\\mne_data\\physionet-sleep-data'
#                                      )
  File "<ipython-input-10-c65537ca5143>", line 13
    'E:\\mne_data\\physionet-sleep-data'
    ^
SyntaxError: positional argument follows keyword argument
# 通道名称映射
​
mapping = {'EOG horizontal': 'eog',
           'Resp oro-nasal': 'misc', 
          'EMG submental': 'misc', 
          'Temp rectal': 'misc', 
          'Event marker': 'misc'}#读取ALICE的edf文件,和其对应的注释文件
​
raw_train = mne.io.read_raw_edf(alice_files[0])
​
annot_train = mne.read_annotations(alice_files[1])
​
raw_train.set_annotations(annot_train, emit_warning=False)
​
raw_train.set_channel_types(mapping)# 绘制空0s开始,时间窗口长度为40s的连续通道数据波形图
raw_train.plot(duration=40,
               scalings='auto')
plt.show()
---------------------------------------------------------------------------
NameError                                 Traceback (most recent call last)
<ipython-input-11-eb88d2a30713> in <module>()
      9 #读取ALICE的edf文件,和其对应的注释文件
     10 
---> 11 raw_train = mne.io.read_raw_edf(alice_files[0])
     12 
     13 annot_train = mne.read_annotations(alice_files[1])

NameError: name 'alice_files' is not defined
[alice_files, bob_files] = fetch_data(subjects=[ALICE, BOB], recording=[1])# 通道名称映射
​
mapping = {'EOG horizontal': 'eog',
           'Resp oro-nasal': 'misc', 
          'EMG submental': 'misc', 
          'Temp rectal': 'misc', 
          'Event marker': 'misc'}#读取ALICE的edf文件,和其对应的注释文件
raw_train = mne.io.read_raw_edf(alice_files[0])
annot_train = mne.read_annotations(alice_files[1])
raw_train.set_annotations(annot_train,
                          emit_warning=False)
raw_train.set_channel_types(mapping)# 绘制空0s开始,时间窗口长度为40s的连续通道数据波形图
​
raw_train.plot(duration=40, 
               scalings='auto')
plt.show()
# 这里仅使用5个阶段:唤醒(W),阶段1,阶段2,阶段3/4和REM睡眠(R)。 
# 为此,这里使用mne.events_from_annotations()中的event_id参数来选择我们感兴趣的事件,
# 并将事件标识符与每个事件相关联。
​
​
"""睡眠表示与事件映射"""
​
annotation_desc_2_event_id = {'Sleep stage W': 1, 
                             'Sleep stage 1': 2, 
                             'Sleep stage 2': 3, 
                             'Sleep stage 3': 4, 
                             'Sleep stage 4': 4, 
                             'Sleep stage R': 5}
​
events_train, _ = mne.events_from_annotations(raw_train,
                                              event_id=annotation_desc_2_event_id,
                                              chunk_duration=30.)# 创建一个新的event_id以统一 阶段3和4
event_id = {'Sleep stage W': 1,
            'Sleep stage 1': 2, 
           'Sleep stage 2': 3,   
         'Sleep stage 3/4': 4, 
           'Sleep stage R': 5}# 绘制事件数据
mne.viz.plot_events(events_train,
                    event_id=event_id,
                    sfreq=raw_train.info['sfreq'])# 保留颜色代码以便进一步绘制
stage_colors = plt.rcParams['axes.prop_cycle'].by_key()['color']# 根据注释中的事件从数据创建epochs(时间片段)
​
​
tmax = 30. - 1. / raw_train.info['sfreq']  
# tmax in included"""
所创建的是时间从tmin=0开始,到tmax为止的epochs
"""
epochs_train = mne.Epochs(raw=raw_train, 
                          events=events_train, 
                         event_id=event_id,
                          tmin=0.,
                          tmax=tmax, 
                          baseline=None)
print(epochs_train)
​
第三步:加载Bob的数据作为测试数据
按照上述相同的步骤来获取Bob的测试数据

raw_test = mne.io.read_raw_edf(bob_files[0])
​
annot_test = mne.read_annotations(bob_files[1])
​
raw_test.set_annotations(annot_test,
                         emit_warning=False)
​
raw_test.set_channel_types(mapping)
​
events_test, _ = mne.events_from_annotations(raw_test,
                                             event_id=annotation_desc_2_event_id,
                                             chunk_duration=30.)
​
epochs_test = mne.Epochs(raw=raw_test,
                         events=events_test,
                         event_id=event_id, 
                        tmin=0.,
                         tmax=tmax,
                         baseline=None)print(epochs_test)
特征工程
观察不同睡眠阶段的功率谱密度(PSD)图,可以看到不同睡眠阶段具有不同的特征。 这些签名在Alice和Bob的数据中保持相似。

在本节的其余部分中,将基于特定频带中的相对功率来创建EEG特征,以捕获数据中睡眠阶段之间的差异。

fig, (ax1, ax2) = plt.subplots(ncols=2)
# iterate over the subjects
stages = sorted(event_id.keys())
for ax, title, epochs in zip([ax1, ax2], 
                            ['Alice', 'Bob'], 
                            [epochs_train, epochs_test]):
    
    for stage, color in zip(stages,
                            stage_colors): 
        
        epochs[stage].plot_psd(area_mode=None, # 【信号处理学习】psd 功率谱密度
                               color=color, ax=ax,
                               fmin=0.1, 
                               fmax=20.,
                               show=False, 
                               average=True,
                               spatial_colors=False)
        
ax.set(title=title, 
       xlabel='Frequency (Hz)')
​
ax2.set(ylabel='uV^2/hz (dB)')
​
ax2.legend(ax2.lines[2::3],
           stages)
​
plt.tight_layout()
plt.show()
第四步:设计scikit-learn 转换器
创建一个函数,根据特定频带中的相对功率提取脑电图特征,从而能够根据脑电图信号预测睡眠阶段。

"""
脑电相对功率带特征提取
该函数接受一个""mne.Epochs"对象,
并基于与scikit-learn兼容的特定频带中的相对功率创建EEG特征。
Parameters    ----------    epochs : Epochs
The data.
Returns    -------    X : numpy array of shape
[n_samples, 5]        Transformed data.    
"""
def eeg_power_band(epochs):# 特定频带
    FREQ_BANDS = {"delta": [0.5, 4.5],
                  "theta": [4.5, 8.5],
                  "alpha": [8.5, 11.5],
                  "sigma": [11.5, 15.5],
                  "beta": [15.5, 30]}
    psds, freqs = psd_welch(epochs, picks='eeg', fmin=0.5, fmax=30.)   
 # 归一化 PSDs
    psds /= np.sum(psds,
                   axis=-1,
                   keepdims=True)
    X = []
    for fmin, fmax in FREQ_BANDS.values():
        psds_band = psds[:, :, (freqs >= fmin) & (freqs < fmax)].mean(axis=-1)
        X.append(psds_band.reshape(len(psds), -1))
        return np.concatenate(X, axis=1)
第五步:根据 Alice的数据来预测Bob的睡眠阶段
使用scikit-learn进行多分类

下面展示了解决如何从爱丽丝的数据中预测鲍勃的睡眠阶段并尽可能避免重复样板代码的问题。

这里将利用sckit-learn的Pipeline和FunctionTransformer。

扩展:[Pipeline可以将许多算法模型串联起来,

可以用于把多个estamitors级联成一个estamitor,

比如将特征提取、归一化、分类组织在一起形成一个典型的机器学习问题工作流。

FunctionTransformer将python函数转换为与estamitor兼容的对象。]

pipe = make_pipeline(
                    FunctionTransformer(eeg_power_band,
                                         validate=False),
                     RandomForestClassifier(n_estimators=100,
                                            random_state=42)
                    )
# 训练
y_train = epochs_train.events[:, 2]
pipe.fit(epochs_train, y_train)
# 预测
y_pred = pipe.predict(epochs_test)
# 评估准确率
y_test = epochs_test.events[:, 2]
acc = accuracy_score(y_test, y_pred)
print("Accuracy score: {}".format(acc))
# 案例上的结果是84.7 为什么这边小下去了?
# 预测的准确精度为84.7%
# 查看分类报告做进一步分析
#   • 
print(classification_report(y_test, 
                            y_pred,
                            target_names=event_id.keys()))# 从分类报告中可以看出,# Bob的每个阶段训练测试样本,以及对应的睡眠阶段的精度。
# 比如W阶段的精度为86%,测试样本为1856。测试总样本为2802。
# 也可以看到其他一些指标比如召回率和F1值。这些指标的含义以后介绍。
!conda install -c conda-forge nodejs
  • 0
    点赞
  • 18
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值