吴恩达机器学习课程作业tips(更新中)

ex4,

一开始做的时候,卡在了代价函数这里,建议大家用for循环来练习这道题目,真正理解神经网络算法和one-vs-all算法的不同。

这个式子的重点在于计算

one-vs-all,十个分类器,分别做十次logistic回归。每一个的结果h_\theta(x)都要和y求误差。也就是10次计算。再有5000个样本,所以是10*5000次计算。

 

而对于神经网络算法,output layer有十个units,每一个unit和对应y的unit求误差,也就是10次计算。再有5000个样本,所以是10*5000次计算。也就是式子中显示的两层求和,K*m。

而不是每一个outputlayer的unit和每一个y都求误差,那就是10*10*5000(K*m*m)次计算。

ex5 

Regularized Linear Regression a nd Bias v.s.Variance

这边的问题不大,主要是在求regularized linear regression cost function,线性回归正则代价函数。发现总是会给惩罚项从1开始积分,但是实数项的theta是不用积分的。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值