机器学习(11.3)--神经网络(nn)算法的深入与优化(3) -- QuadraticCost(二次方代价函数)数理分析

    
    在前面的文章已经对神经网络的基本算法流程做了详细的介绍
    机器学习(1)--神经网络初探
    机器学习(10.4)--手写数字识别的不同算法比较(4)--神经网络

    在这中间使用的就是QuadraticCost(二次方代价函数),其实在我们代码中并没有相关的代码,那这个所以的代价函数是什么?

    在文章 机器学习(7)--梯度下降法(GradientDescent)的简单实现  使用的其实就是QuadraticCost


    这篇文章我们将从数理上对QuadraticCost进行讲解:

以下是原本我们训练单条记录时的代码,

def itemData(item,layers,weights,biases):
    #开始正向计算
    zs = []
    acts = [item[0]]
    for w,b in zip(weights,biases):
        z = np.dot(w,acts[-1]) + b
        zs.append(z)
        acts.append(sigmoid(z))
    #开始反向计算
    item_w = [np.zeros(b.shape) for b in weights]   
    item_b
  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值