【吴恩达深度学习】【神经网络和深度学习】 第三章 第四节 多个例子中的向量化

一、为什么能够向量化

大部分原因和前面blog中描述是一致的,这里又有了一点心得思考。

如果我们在后面要进行梯度下降法或者别的什么方法进行回归计算或者别的深度学习的时候,我们总是要对整个神经网络的参数进行调整的,那么这个调整的过程需要确定两件事,调整谁,调多少,以及想明白一件事,为什么要调。

显然,这个问题过于复杂,而且即使想出来了也没有太多的意义,毕竟神经网络中的某个神经元的意义没有过多的价值。

而在向量化之后,我们处理的是所有参数和在一起形成的向量,就不需要考虑单个向量的问题了,也就一定程度上规避了上述的问题。

不过我还是保留之前的主要看法,向量化方便了机器运算。

二、不同视频中w的一些问题

在不同的视频中,w往往有两层含义。其一是表示一个具体的实数作为参数,其二是多个前者形成的参数列向量。而不知为何,在不同的视频中基本上都是使用了一个简单的w,或许有大小写的区别,但真的看不清。希望看到这边blog的同学在看视频的时候可以留意这一点,不要再关键问题的理解上出现偏差。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值