代价函数

本文介绍了代价函数在机器学习中的应用,特别是针对深度学习。主要内容包括方差代价函数、交叉熵代价函数以及log似然代价函数。在使用sigmoid激活函数时,推荐使用交叉熵代价函数以优化训练效率。此外,还解释了Softmax回归中的代价函数,强调了正确分类神经元输出概率高时代价更低的原则。
摘要由CSDN通过智能技术生成

代价函数

1. 方差代价函数

代价函数经常用方差代价函数(即采用均方误差MSE),比如对于一个神经元(单输入单输出,sigmoid函数),定义其代价函数为:
公式
其中y是我们期望的输出,a为神经元的实际输出【 a=σ(z), where z=wx+b 】。

2. 交叉熵代价函数

公式对应一个神经元,多输入单输出
公式
其中y为期望的输出,a为神经元实际输出【a=σ(z), where z=∑Wj*Xj+b】
与方差代价函数一样,交叉熵代价函数同样有两个性质:

  • 非负性。(所以我们的目标就是最小化代价函数)
  • 当真实输出a与期望输出y接近的时候,代价函数接近于0.(比如y=0,a~0;y=1,a~1时,代价函数都接近0)。

3. 总结

  • 当我们用sigmoid函数作为神经元的激活函数时,最好使用交叉熵代价函数来替代方差代价函数,以避免训练过程太慢。
  • 不过,你也许会问,为什么是交叉熵函数?导数中不带σ′(z)项的函数有无数种,怎么就想到用交叉熵函数?这自然是有来头的,更深入的讨论就不写了,少年请自行了解。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值