神经网络中logistic回归的学习笔记

本周开始学习神经网络的一些简单用例

二分分类

主要是根据一些x的输入,来确定y的输出,其中y是0或者1,即判定是还是不是,所以称为二分分类。
输入的是判断的一些特征,在这之前应该进行特征提取,比如输入特征向量,向量的纬度可能会很大,来进行分类。

logistic回归

Logistic回归为概率型非线性回归模型,是研究二分类观察结果与一些影响因素之间关系的一种多

变量分析方法。在这个课中logistic函数是
在这里插入图片描述
定义域在负无穷到正无穷,值域是(0,1).这里的自变量x是有多个特征线性组合得到,逻辑斯特回归的重点就是训练这些参数
在这里插入图片描述
根据所给的m组数据训练参数,使得误差最小,于是就产生了损失函数。损失函数就是用来定义于真实情况的差距大小。
在这里插入图片描述
在以往的经验里是这样子,但是这个可能陷入局部最优(这个后面会讲到)
在这里插入图片描述
于是在这里我们使用这个损失函数,可以起到同样的效果,当yhat跟y越近,函数值就越小。

梯度下降法

在这里插入图片描述
梯度下降法就是从某一个给定的初值开始,朝着下降最快的方向走,多次迭代后达到局部最优解,当然,在凸问题中就是最全局最优解。
导数这两节的内容在基础课中均有学过,在这里就不再叙述。

计算图

这个类似于思维导图,流程图一类的。基于TensorFlow这个编程系统中的每一个计算都是计算图上的一个节点,而节点与节点之间的连线则代表计算之间的依赖关系。
在这里插入图片描述
这是课中举的简单的计算图例子。
在这里插入图片描述
前面的logistic回归就可以使用这个计算图表示。

向量化

用向量化来避免for循环,可以提高不少速度。
在逻辑回归中,以计算z为例,z=wT+b,你可以用for循环来实现。

但是在python中z可以调用numpy的方法,直接一句z=np.dot(w,x)+b用向量化完成,而且你会发现这个非常快。

ng做了个实验,求两个100万长的一维向量的內积,用向量化花了1.5毫秒,而用for循环计算花了400多毫秒。

所以平常记得用向量化,一定要避免使用for循环,你的代码会快很多。

CPU和GPU都有并行化的指令,有时候叫SIMD( single instruction multiple data )。

如果你使用了这样的内置函数,比如np.function,python的numpy能充分利用并行化去更快的计算。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值