吴恩达深度学习(1)关于课程里的各种w的解释

1.这里的w是一个n*1的矩阵,w^t是w的转置。w^t*x是一个1*1的矩阵

 2.w在一组样本里面是固定的,x(i)在变,而w一直是同一个矩阵。J(w,b)即在这个w,b的条件下,所有样本的表现。

3. 利用梯度下降法对w进行更新,目的为找到使得J(w,b)最小的w,b

4.如图理解,其中w1,w2利用梯度下降法更新

 

 

5. 同样如图所示

 

6.理解如图所示,但是有点疑惑就是w_1^[1],w_2^[1]等这些w_?[1]的关系是什么?是任意选的么?之后的课程中,w的含义几乎都固定下来了。

  • 2
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值