自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(5)
  • 收藏
  • 关注

转载 deap数据集

在每次试验后,使用标准小鼠以连续的9分制直接对价,唤醒,优势和喜欢进行评级。有32个.bdf文件(由Actiview录音软件生成的BioSemi数据格式),每个文件有48个512Hz的录制通道(32个脑电图通道,12个外围通道,3个未使用的通道和1个状态通道)。参与者评分,生理记录和面部视频的实验,其中32名志愿者观看了上述40个音乐视频的子集。此外,参与者还使用情绪轮对感受到的情绪进行评分(见[2])。请注意,由于版权限制,我们无法提供我们使用的视频,这些链接可能已被删除或在您所在的国家/地区不可用。

2022-11-06 13:48:06 4946

原创 LDA与PCA

PCA是常用的有效的数据降维的方法,与之相同的是LDA也是一种将数据降维的方法。PCA已经是一种表现很好的数据降维的方法,那为什么还要有LDA呢?下面我们就来回答这个问题?PCA是一种无监督的数据降维方法,与之不同的是LDA是一种有监督的数据降维方法。我们知道即使在训练样本上,我们提供了类别标签,在使用PCA模型的时候,我们是不利用类别标签的,而LDA在进行数据降维的时候是利用数据的类别标签提供的信息的。从几何的角度来看,PCA和LDA都是讲数据投影到新的相互正交的坐标轴上。只不过在投影的过程.

2021-11-06 11:26:51 183

原创 机器学习算法

 一、有监督学习算法一:决策树决策树是一种树形结构,为人们提供决策依据,决策树可以用来回答yes和no问题,它通过树形结构将各种情况组合都表示出来,每个分支表示一次选择(选择yes还是no),直到所有选择都进行完毕,最终给出正确答案。算法二:最小二乘法如果你对统计学有所了解,那么你必定听说过线性回归。最小均方就是用来求线性回归的。如下图所示,平面内会有一系列点,然后我们求取一条线,使得这条线尽可能拟合这些点分布,这就是线性回归。这条线有多种找法,最小二乘法就是其中一种。最小二乘法其原理如下,

2021-10-23 23:35:16 112

翻译 奇异值分解(SVD)原理

奇异值分解(Singular Value Decomposition)是线性代数中一种重要的矩阵分解,奇异值分解则是特征分解在任意矩阵上的推广。在信号处理、统计学等领域有重要应用。 [1]奇异值分解在某些方面与对称矩阵或Hermite矩阵基于特征向量的对角化类似。然而这两种矩阵分解尽管有其相关性,但还是有明显的不同。谱分析的基础是对称阵特征向量的分解,而奇异值分解则是谱分析理论在任意矩阵上的推广。假设M是一个m×n阶矩阵,其中的元素全部属于域 K,也就是实数域或复数域。如此则存在一个分解使得其中U是m×

2021-10-18 11:06:50 1259

原创 sklearn-SVC(svm)

fit原义指的是安装、使适合的意思是一个适配的过程,过程都是确定的,最后得到一个可用于转换的有价值的信息。(目前可以简单理解为:fit获取了关于数据的有效信息,transform利用fit提供的有效信息进行特征转换)kernel: str参数 默认为‘rbf’算法中采用的核函数类型,可选参数有:‘linear’:线性核函数‘poly’:多项式核函数‘rbf’:径像核函数/高斯核‘sigmod’:sigmod核函数‘precomputed’:核矩阵★fit()方法:用于训练

2021-10-18 10:40:14 1744

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除