第十三篇:向量化逻辑回归(Vectorised Logistic Regression)

1、逻辑回归的前向传播步骤:

如果你有m个训练样本,为了完成前向传播步骤,需要对于每一个样本都进行预测,即对m个样本都计算出预测值,过程为:

  • 对 第一个样本进行预测:

                                        z^{(1)} = w^{T}x^{(1)} +   b;

                                        a^{(1)} = σ(z^{(1)});

  •  对第二个样本进行预测:                          

                                          z^{(2)} = w^{T}x^{(2)}+   b;

                                         a^{(2)}= σ(z^{(2)});

  •  对第三个样本进行预测:

                                                          

依次类推,一直要将m个样本的预测值都计算出来;

 

2、不使用明确的for循环的向量化的处理步骤:

    定义一个训练输入矩阵X,X∈\mathbb{R}^{n_{x}*m},即是一个 n_{x} 行 m 列的矩阵,改写成 Python.numpy 的形式(n_{x},m);

                                                  

对于z来说,需要计算 z^{(1)}, z^{(2)}, .….., 一直到 z^{(m)},因此构建一个 1*m 的矩阵 Z = [z^{(1)}z^{(2)}.…..z^{(m)}],而 z^{(i)} = w^{T}x^{i} +   b;因此可以写成[z^{(1)}z^{(2)}.…..z^{(m)}] = [w^{T}x^{(1)}  + b, w^{T}x^{(2)} + b…...w^{T}x^{m} + b];而对于numpy的命令是 Z = np.dot(w.T, x) + b,这里在Python中有一个巧妙的地方,这里b是一个实数,或者你可以说是一个1×1矩阵,只是一个普通的实数。但是当你将这个向量加上这个实数时,Python自动把这个实数b扩展成一个1xm的行向量。它在Python中被称作广播(brosdcasting).

对于同时计算 [a^{(1)}a^{(2)}.…..a^{(m)}] 的方法。可以堆积小写变量 a 间形成一个新的变量,可以将它定义为大写A,即: A =   [a^{(1)}a^{(2)}.…..a^{(m)}] = σ(z), 通过恰当地运用σ 一次性计算所有a。

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值