tensorflow简单使用案例--mnist数集分类(2)-二次代价函数

本文通过实例介绍了在TensorFlow中,使用二次代价函数与交叉熵代价函数对MNIST数据集进行分类的效果。实验表明,交叉熵代价函数相比二次代价函数能更快地达到较高的准确率,更适合Sigmoid或Softmax激活函数的输出层。
摘要由CSDN通过智能技术生成

1.二次代价函数

输出a之前要经过激活函数?为什么?

二次代价函数:

2.梯度下降法

假如我们使用梯度下降法(Gradient descent)来调整权值参数的大小,w和b的梯度跟激活函数的梯度成正比,激活函数的
梯度越大,w和b的大小调整得越快,训练收敛得就越快。

3.交叉熵代价函数(不改变激活函数)

二次代价函数权值修正效果不好。

改变代价函数,改用交叉熵代价函数:

不作推到了………………

4.结论

1.交叉熵代价函数:权值和偏置值的调整与无关,另外,梯度公式中的 表示输出值与实际值的误差。所以当误差越大时,梯度就越大,参数w和b的调整就越快,训练的速度也就越快。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值