吴恩达机器学习之神经网络小节-正则化项

学习吴恩达的机器学习时,大家可能会对神经网络的正则化项不理解,在这里我阐述一下我自己的理解,如有错误,请大家批评指正
对于多分类任务中神经网络的代价函数:
在这里插入图片描述
这个大括号里面还好看一些,主要就是这个正则化项,这里大家可能被lecture8里面的权重函数定义给搞糊涂了。
在这里插入图片描述
这里只是说了权重矩阵的维度,它和正则化项是没太大关系的,看一下对于二分类的代价函数
在这里插入图片描述
权值theta是从1开始的,并不会对theta0进行压缩。同样对于神经网络也是,l表示神经网络的层数,这里到L-1是因为在L层的网络中相邻两层的权重矩阵有L-1个,sl和s(l+1)分别表示第l层、l+1层神经元个数,而i和j都是从1开始的,说明不会压缩偏置项,这样一看就是在l层的一个神经元到l+1层的每一个神经元都输出平方了一遍,然后第二个神经元再走一遍,直到全部走完。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值