一
1.窗口的设置
总的数据为[530 200]*17
考虑一个人的样本[530 200],选择窗口宽度为50,步长为1。在530的时间长度中,一共有530-50+1=481个窗口,一个样本的窗口数据组成[50 200 481]的矩阵。
2数据的处理
对一个窗口的数据[50 200]进行corr,产生[200 200]的矩阵,矩阵对角线为元素的自相关值为1,对角元素相同,对矩阵取上对角元素组成(200*199)/2=19900维的向量,将其看DBN网络的一个输入,共481*17组输入。
3进行深度学习
对输入数据进行降维以及标准化,变为[8177,2825]类型的输入。
训练之后产生一个权重矩阵W=w1*w2=[2825,128],权重矩阵的每一列都代表一个基础连接矩阵(输入的是连接矩阵,学习到的也是连接矩阵,中间的weight矩阵值高的代表某一个连接贡献大,即其的连接紧密,所以对应的一个2825维的就代表大脑的功能连接矩阵,一共有128基础的连接矩阵)然后将2825维的还原到原来的[200,200]维空间中,使用brainnetviewer将其画出,node文件使用的是cc_roi.node,分了200个ROI。
画功能连接图的时候,需要对weight矩阵进行处理,将元素值小的地方变为零,找出比较重要的功能连接。
二
第一次数据处理不对,当取0.5的阈值的时候会将corr连接矩阵小于0.5的取为0,这时候corr的取值范围就是0.5-1,之后进行dbn学习的时候对其进行zscore变化,变成标准正太分布,本来相关性不大的点就变成了负相关很大的点?重构的时候怎么理解负相关?