吴恩达机器学习笔记Day 3

吴恩达机器学习笔记Day 3

逻辑回归

解决分类问题,例如判断邮件是否是垃圾邮件,线上交易是否存在欺诈,肿瘤的良性或恶性。这些例子的输出y属于集合{0,1},0代表”Negative class",1代表“Postive class"。
所以在分类问题中,y = 0 or 1,假设函数h(x)能大于1或者小于0,而当我们使用逻辑回归(分类)时,要使假设函数在[0,1]区间内。
上述例子并不适合用线性回归来解决,为什么呢,请看图。肿瘤大小与良恶性
线性回归中假设函数, h θ ( x ) = θ T x h_\theta(x)=\theta^Tx hθ(x)=θTx
逻辑回归中引入Sigmoid function, g ( z ) = 1 1 + e − z g(z)=\frac{1}{1+e^-z} g(z)=1+ez1
h θ ( x ) = g ( θ T x ) h_\theta(x)=g(\theta^Tx) hθ(x)=g(θTx)
sigmoid 函数图像在这里插入图片描述

决策边界

h θ ( x ) ≥ 0.5 h_\theta(x)≥0.5 hθ(x)0.5 也就是 θ T x ≥ 0 \theta^Tx≥0 θTx0时,y = 1
h θ ( x ) &lt; 0.5 h_\theta(x)&lt;0.5 hθ(x)<0.5 也就是 θ T x &lt; 0 \theta^Tx&lt;0 θTx<0时,y = 0
在这里插入图片描述

代价函数

如何选择参数 θ \theta θ?在这里插入图片描述
由于逻辑回归的假设函数是sigmo函数,所以画出的代价函数图形如左边所示,由此可见,线性回归的Cost已不再适用,需要对Cost项的函数进行改造,让图形更加光滑。在这里插入图片描述
公开课上讲的非常清楚,选择指数形式能很好的解决此问题。
这里直接给出优化后的函数形式在这里插入图片描述
接下来是梯度下降在这里插入图片描述
虽然函数形式是跟线性回归一样的,但假设函数已经发生了改变。

多元分类,一对多

也就是说输出值y = 0, 1,2,3.。。在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

正则化

为了解决过拟合的问题,一是尽量减少特征的数量:可以保留主要的特征,算法模型的选择。
二就是正则化
能保留所有特征,但会减少参数θ的值
当有大量特征值时,效果显著。
正则化,也是矩阵知识中的范畴,以后再补这方面的知识。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值