WESAD:情绪分类多模态传感器数据集

数据集下载地址
https://ubicomp.eti.uni-siegen.de/home/datasets/icmi18/
数据集对应代码链接
https://github.com/WJMatthew/WESAD

数据集说明

1.实验设置

参与人员:15人

实验过程:

15名参与人员分别佩戴胸部(chest)和腕部(wrist)传感器,进行90分钟左右的实验,实验阶段主要分为五个:
1.baseline condition: 刚装上传感器后的20分钟,静坐阅读
2.amusement condition:娱乐阶段,观看搞笑短片
3.meditation condition 1:冷静阶段
4.stress condition:压力阶段,实验者处在TSST(Trier Social Stress Test)情境下,这个情景可以有效地让参与者感受到压力
5.meditation condition 2:冷静阶段
ps:每个实验者的实验过程可能有略微不同,具体各阶段的顺序放在各用户目录的SX_quest.csv中,X为用户ID
示例:S2_quest.csv
为了验证实验过程是有效的,每个实验者需要在每个阶段完成后填写调查问卷:
1.Positive and Negative Affect Schedule (PANAS)
PANAS reliably assesses positive (PA) and negative affect (NA),获取二维情绪模型的pleasure值
2.State-Trait Anxiety Inventory (STAI)
gain insight into the anxiety level of the participants
3.Self-Assessment Manikins (SAM)
generate labels in the valence-arousal space,获取二维情绪模型的arousal值
4.Short Stress State Questionnaire (SSSQ)
TSST阶段之后,用SSSQ问卷获取压力类型(worry, engagement, or distress)
具体各问卷问题内容参考数据集readme.pdf => III.2.
PANAS部分问卷内容截图
S2回答截图

2.数据文件说明

# 以S2为例
 - S2/
 - - S2_E4_Data.zip 存放用户各传感器原始数据
 - - - - ACC.csv  
 - - - - BVP.csv
 - - - - EDA.csv  
 - - - - HR.csv  
 - - - - IBI.csv  
 - - - - info.txt  
 - - - - tags.csv  
 - - - - TEMP.csv
 - - S2.pkl 
 - - S2_quest.csv 实验阶段和用户问卷数据
 - - S2_readme.txt  
 - - S2_respiban.txt
 
S2.pkl 存放初步处理过的数据,用python的pickle读取后为字典数据,报错请看[pickle报错解决](https://blog.csdn.net/u012813109/article/details/106966338)
 - dict_data
 - - subject: "S2"
 - - label: 标签 shape=(4255300,)  700hz
 - - signal:传感器数据
 - - - - chest
 - - - - - - ACC:加速度  shape=(4255300,)  700hz
 - - - - - - ECG:心电     shape=(4255300,)  700hz
 - - - - - - EMG:肌电     shape=(4255300,)  700hz
 - - - - - - EDA:皮肤电  shape=(4255300,)  700hz
 - - - - - - TEMP:体温   shape=(4255300,)  700hz
 - - - - - - RESP:呼吸   shape=(4255300,)  700hz
 - - - - wrist
 - - - - - - ACC:加速度  shape=(194528,)  32hz
 - - - - - - BVP:脉搏      shape=(389056,)  64hz
 - - - - - - EDA:皮肤电  shape=(24316,)    4hz
 - - - - - - TEMP:体温   shape=(24316,)    4hz

3.标签说明

可以使用情景标签1 2 3 4
也可以使用 用户问卷标签

参考文献

Philip Schmidt, Attila Reiss, Robert Duerichen, Claus Marberger and Kristof Van Laerhoven. 2018. Introducing WESAD, a multimodal dataset for Wearable Stress and Affect Detection. In 2018 International Conference on Multimodal Interaction (ICMI ’18), October 16–20, 2018, Boulder, CO, USA. ACM, New York, NY, USA, 9 pages. https://doi.org/10.1145/3242969.3242985

  • 5
    点赞
  • 25
    收藏
    觉得还不错? 一键收藏
  • 11
    评论
多模态传感器融合是指将多个不同类型的传感器信息融合在一起,以提取更全面、更准确的信息。以下是一些常用的多模态传感器融合方法: 1. 特征级融合:将每个传感器获得的特征进行拼接、加权求和等操作,形成一个综合特征向量。这种方法简单直观,但可能忽略了传感器之间的互相影响。 2. 决策级融合:将每个传感器独立做出的决策结果进行加权求和或投票等操作,得到最终的决策结果。这种方法适用于传感器之间的决策独立性较高的情况。 3. 模型级融合:使用机器学习方法,将多个传感器的数据输入到一个统一的模型中进行训练和预测。例如,使用深度神经网络来学习多模态数据之间的特征关系,提高整体性能。 4. 级联或并行融合:级联融合是将传感器的输出作为下一个传感器的输入,逐步融合信息;并行融合是将多个传感器的输出同时输入到一个算法中进行融合。这些方法可以通过迭代、协同训练等方式提高融合效果。 5. 非负矩阵分解:将传感器数据表示为非负矩阵,使用非负矩阵分解等方法来提取数据的共享特征,以实现信息的融合和降维。 6. 图模型:使用图模型来表示传感器之间的关系,通过图模型的推理和优化方法进行信息融合。 7. 混合方法:结合多种融合方法,根据具体场景和任务需求进行灵活选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 11
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值