神经网络中损失函数和代价函数的关系
二分法举例,我们为了分别一张图片是不是猫,如果是猫就输出1,不是猫输出0起初,我们用y=ax+b来预测一张图片,但是随着我们输入变多,也就是输入变成了一个矩阵,我们开始用y=w.Tx+b来预测,这里的w是一个列向量,里面有w1,w2,...,wn,其实也就是y=ax+b里面的a,但是由于x变多了,所以w的维度也增加了。但是由于y是线性的,他计算出的值可能大于1,可能小于1,所以我们用到了一个激活函数,比如sigmoid,然后把y放到激活函数里面,那么他的值就被控制在0,1之间。(y)=y^=a,此时的y
原创
2021-11-13 08:40:41 ·
422 阅读 ·
0 评论