第十二篇:向量化的更多例子

1、在上节课程中,我们知道通过numpy内置函数和避开显式循环(loop)的方式进行量化,从而有效提高代码的速度。

2、经验提醒我,当我们在写神经网络程序时,或者在写逻辑(logistic)回归,或者其他神经网络模型时,应该避免写循环(loop)语句。虽然有时写循环(loop)是不可避免的,但是我们可以使用比如numpy的内置函数或者其他办法去计算。当你这样使用后,程序效率总是快于循环(loop)。

3、举个实例:

  • 计算向量u=Av, 这时矩阵的乘法定义为:u_{i} = \sumA_{ij}v_{i};

使用非向量化实现:

         u = np. zeros(n,1), 并且通过两层循环for(i):for(j):, 得到 u[i] = u[i] + A[i][j] * v[j]

使用向量化实现:

        u=np.dot(A, v),通过这种向量化的实现方式,消除了两层循环,使得代码运行速度更快;

  • 如果你已经有一个向量 v, 并且想要对向量化 v 的每个元素做指数操作,得到向量 u 等于 e 的 v1,e 的 v2,一直到 e 的 vn次方。即:

                                       

使用非向量化的实现方式:

                      u = np. zeros((n,1))

                      for  in  range (n):

                            u[i] = math.exp (v[i])

 

使用向量化的实现方式:

                import numpy as np

                u = np. exp(v)

 

    

 将向量化运用在逻辑回归的梯度下降上

  非向量化的实现方式:

                       

向量化实现方式:

                      

                         

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值