吴恩达笔记——神经网络基础(二):Logistic回归

吴恩达笔记——神经网络基础:Logistic回归

上一节讲到二分类问题:
二分类问题的目标是训练出一个分类器,这个分类器可以使用图片特征向量x作为输入,预测输出的结果标签y,y=1?还是y=0?

Logistic回归:

  1. 一种用于监督学习问题中的“学习算法”,它的输出是0或者1,也是一个二分类问题;
  2. **Given:**一张图片输入,对应的 输入向量:x;
  3. **What:**为了实现识别目标(图片中是猫?或者不是猫?),我们需要一个算法(函数),这个算法在有图片输入时,可以给出 预测值:y(hat);

算法构造:

尝试方法: 构造 y(hat) = wTx+b (输入x的线性函数)模型算法的参数:w;偏置:b;
不足: 这种方法不能很好的实现二元分类,因为我们希望y(hat)的结果是一个概率,所以对于y(hat)我们希望的取值范围为(0-1),而这个算法的结果并不在这个区间。
弥补不足: 在wTx+b上使用sigmoid函数,令z=wTx+b,将y(hat)转换到(0-1)范围内。

///
sigmoid函数概念
sigmoid函数sigmoid公式
逻辑回归函数
当z趋近于正无穷的时候,e-z就接近于0,sigmoid(z)接近于1;
当z趋近于负无穷的时候,e-z就接近于正无穷,sigmoid(z)接近于0;

总结一下:
前面的描述的是Logistic回归模型的概要构造过程,对于初学者,可能有些迷糊,这里做一个大白话的总结。
Logistic回归算法是给定了特定的一个sigmoid函数模型 :y(hat) = sigmoid(wTx+b)。
其中w是权重,b是偏置,这两个参数都是未知的。
为了获取符合分类目的的函数模型(比如,这里为了分类是猫,不是猫),我们需要有监督的学习获取w和b。
1)含有标签的训练集;
2)将训练集输入Logistic回归算法模型,通过学习获取y(hat)函数的相关参数 w和b,使得算法模型在有图片输入时能够得到分类结果。(如何训练,需要定义一个成本函数,参看下一节)

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值