Deep Learning Specialization课程笔记——神经网络编程基础

Vectorization

非向量化和向量化的区别:


在jupyter notebook上:

import time

a=np.random.rand(1000000)
b=np.random.rand(1000000)

tic=time.time()
c=np.dot(a,b)
toc=time.time()
print ("vectorized version:"+ str(1000*(toc-tic))+"ms")

c=0
tic=time.time()
for i in range(1000000):
    c+=a[i]*b[i]
toc=time.time()
print("for loop version:"+ str(1000*(toc-tic))+"ms")

得到结果:


说明矢量化速度比for loop快很多。

GPU和CPU都有并行化的指令,他们有时候会叫做SIMD指令,代表一个单独指令多维数据。矢量化利用了并行化去更快地计算。


More Vectorization Examples

经验之谈,在编写神经网络和逻辑回归时,都要尽可能避免使用显式的for-loop。

矩阵A和向量v的乘积例子:


向量v向向量u转化的例子:


其中v**2计算向量中每个元素的平方。

对逻辑回归代码的矢量化改写:



 Vectorizing Logistic Regression

可以实现用梯度下降的一次迭代来处理整个训练集,而不需要一个for loop。

向量化的改写公式:



Vectorizing Logistic Regression's Gradient Output

在进行梯度下降的计算时,db和dw的求解如下:


对代码的改写为:


右边的式子实现了不使用for循环完成一次梯度下降,但如果想让梯度下降迭代很多次,还是需要for循环。


Broadcasting

广播是另一种能让python代码运行更快的技术。以卡路里问题举例:



求每种食物的总卡路里:


然后计算百分比:


广播在这里的含义,是可以自动将(1,4)矩阵转变为(3,4),实现除法运算。

上上节中,加b也是运用了广播的原理。

更多广播运算:



A note on python/numpy vectors


具体的note见注释。

assert(a.shape==(5,1))断言语句。

这节的要点就是:为了简化代码,不要用秩为一的矩阵


Quick tour of Jupyter/iPython Notebooks

没有什么内容。


Explanation of logistic regression cost function

loss function公式的推导:


cost function的推导:



  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值