非监督学习——随机投影与ICA

目录

随机投影:

sklearn 随机投影:

独立成分分析(Independent Component Analysis):

sklearn 独立成分分析:

应用:


随机投影:

1、系统计算资源有限或主成分分析太繁重,使用随机投影。

2、基本前提:可以用数据集乘以一个随机矩阵,以减少其维度的数量,公式:X^{RP} _{k\times N} = R_{k\times d} X_{d\times N}

3、支持随机投影的理论:Johnson-Lindenstrauss Lemma,处于高维度空间的有N个点的数据集,乘以随机矩阵,就可以被就诊映射成很低维度的空间,即缩小的数据集。

(1-eps)\left \| u-v \right \|^{2} < \left \| p(u)-p(v) \right \|^{2} < (1+eps)\left \| u-v \right \|^{2}

eps:随机投影误差,用于计算产生了多少列,并且是我们在此降维中可接受的失真的误差水平。

sklearn 随机投影:

独立成分分析(Independent Component Analysis):

1、假设特征是独立源的混合,并尝试分离混合在数据集里的独立源。盲源分离问题可以使用这个原理。

2、X=AS,S=WX,W=A^{-1}。(s:信源,A:混合矩阵,W:非混合矩阵)

3、步骤:

  • 数据集,将其居中、白化。
  • 选择一个初始的随机权重矩阵。
  • W 预估W是包括多个向量的矩阵,每个向量都是权值向量。W^{+} = E\left\{ xg(W^{T}X) \right\} - E\left\{ {g}'(W^{T}X) \right\},整个式子叫负熵(大致估计的一种方法)。
  • 去相关操作,防止W_{1} 和 W_{2} 转化为同样的值。Let W = (WW^{T})^{-\frac {1}{2}W},假设非高斯分布(必须不是高斯分布)。
  • 重复第三步,直到发生转换,直到找到满意的W值。

4、 ICA 需要与我们试图分离的原始信号一样多的观测值。

sklearn 独立成分分析:

应用:

广泛用于医学扫描仪,例如EEG、MEG等脑补扫描仪。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

laboirousbee

你的鼓励是我创作的动力。

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值