Deep Learning|神经网络原理学习笔记(7) :反向传播关于代价函数的两个假设、Hadamard 乘积⊙

这篇博客探讨了深度学习中反向传播算法对代价函数的两个假设,即代价函数应为每个样本代价函数的均值,并能表示为神经网络输出的函数。同时介绍了Hadamard乘积(Schur乘积),它是同维度矩阵对应元素相乘的运算。
摘要由CSDN通过智能技术生成

回学校一阵,慢慢习惯了三点一线的日子
我特别爱散步,回到学校真的爱死了这片操场
第一天本只想进去看看,结果背着电脑戴着耳机走到不想停
微风星空夜晚网易云+没有灯!!!黑暗里谁也看不见谁的感觉不要太妙啊啊(土拨鼠尖叫)
推首歌(网易云):歌名:Say You Love Me(feat_tamala) 歌手:西原健一郎

在这里插入图片描述
❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤❤分割线

1 反向传播关于代价函数的两个假设

为了让反向传播可行,对代价函数做出两个假设:
首先注意:反向传播的⽬标是计算代价函数 C C C 分别关于 w w w b b b 的偏导数 ∂ C / ∂ w \partial C/\partial w C/w ∂ C / ∂ b \partial C/\partial b C/b
一下依然会考虑笔记(4)和(5)中说过的二次代价函数形式。
在这里插入图片描述
这里

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值