Local Receptive Fields Based Extreme Learning Machine

论文主旨

 

 

建模

1 SLFNs单隐层前馈神经网络

 

对于隐含层m1来说,若W为权重,sum为连接权重和对应输入相乘后的叠加,为一个线性公式.再用S型函数对其进行激活,增加非线性因素,sigmoidsum)即为m1的输出,进行下一轮的计算。

直到输出层,设y1标记为(1,0),y2标记为(0,1),根据计算结果(y1,y2=0.72,0.36,则属于y1这个类。

2 ELM超限学习机

2.1本质:

(在单隐层神经网络基础上,隐含层之前的权重随机赋予;隐含层之后的权重用最小二乘法训练求得)

The hidden nodes are randomly generatedfeature mapping阶段)and the output weights are analytically calculated with minimum norm of output weights constraintsELM learning阶段),which provides a deterministic solution that is simpler,stable,and more efficient.

 

2.2特点:

iall the hidden node parameters can be randomly generated as long as the activation function is nonlinear piecewise continuous;

ii)all the hidden nodes can be not only independent from training samples but also independent from each other;

Iii)ELM不局限于几种神经网络。

 

1)在这张图中,input layerhidden laye中的权值wi1,wi2,wi3都是随机赋予,符合某种概率分布。

2)在ELM learning阶段,目标是:

 

Ctrade-off为了权衡两者所占的比重。单独的β是为了防止过拟合。Hhidden layer output matrix,一图片到隐含层为L个向量表示,N个图片。T is ground-truth

                 

当基本的参数都为2时,Solution is closed-form. 

 

这个公式中所有参数都是一维,但是图像是二维。做实验时,把100x100的图像变换成1x10000的向量即可。

3 CNN卷积神经网络

3.1卷积

 

这个卷积核大小3x3

用这个卷积核不断向右平移一列去“盖章”,相乘相加。这个也是文中所说不同于ELMfull connection。因为4只跟左上角的9个数有关,而不是整个图像。

3.2 池化

 

选取卷积神经元中的一部分就叫池化,类似于文中的combination.

4 ELM-LRF基于局部可接受域的超限学习机

 

Local receptive field就是卷积核的大小,random inputweight a就是卷积核里的数字,符合某种随机概率分布。feature map就是convoluted feature,之所以说权值共享是因为一个卷积核要去在整个图中一一平移“盖章”,“盖章”时的权重一样。生成K个卷积核,得到Kfeature map,对每一个feature map采样(combination),得到Kpooling map,跟输出层full connection,用最小二乘法确定ELM learning阶段的权值。


  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值