机器学习公开课——学习笔记1

一下是本人回忆总结,有很多不完整或者错误的地方。


对P(y|x;Θ)进行建模,目前主要学习了两种算法:

1、y∈R时,y满足高斯分布  ——>使用基于最小二乘法的线性回归 。

      为了使数据集与回归函数的误差值最小,使用最小二乘法可以达到这个目的。

      当数据集特别大的时候,为了避免计算量大,因此使用单个数据的计算结果进行迭代,依次使用数据集中数据。最后求得Θ使误差函数最小。

2、y∈{0,1};这是一个分类问题,y取0或1。

   对分类问题进行线性回归是一件非常糟糕的事情。

   最为自然的0-1之间的分布是伯努利分布,他可以只取0或1 ——>因此得到了logistic回归。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值