神经网络续写1

目标函数:

 

 

变化量:

 

 

gradient vector

 

以上三个公式推出:

设定:

<= 0

 

所以C不断减小

 

回顾目标函数:

是平均的cost

 

权重和偏向更新方程:

 

 

对于每个训练实例x, 都要j计算梯度向量gradient vector:  ∇C

如果训练数据集过大, 会花费很长时间,学习过程太慢

 

所以, 一个变种称为:

 

随机梯度下降算法 (stochastic gradient descent):

 

基本思想: 从所有训练实例中取一个小的采样(sample): X1,X2,…,Xm   (mini-batch)

来估计 ∇C, 大大提高学习速度

 

举例: 选举调查

 

如果样本够大, 

 

 

代入更新方程:


然后,重新选择一个mini-batch用来训练,直到用完所有的训练实例,一轮epoch完成

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值