《机器学习》(Machine Learning)——Andrew Ng 斯坦福大学公开课学习笔记(二)

第3集  欠拟合和过拟合的概念

一、线性回归的解释

,最后一项表示误差项(独立同分布),对前面未被建模的因素进行考虑,一般误差项的加和,根据中心极限定理,符合高斯分布



推出:

 注意:分号表示(频率学派的观点,逗号则是贝叶斯学派的观点),以theta为参数的概率,theta不是随机变量,而是有真正数值但未知。然后最大似然求解


二、Locally weighted linear regression局部加权线性回归(非参数学习算法)

在预测值时,选取待预测x周围邻近训练集中的数据【x^(i)s,y^(i)s】进行拟合,然后预测


非负权重:,tow是带宽参数

不适合大数据集,速度慢一些,因为每次要遍历所有数据。可以参考Andrew Moore的研究对其的改进

三、逻辑回归 logistic regression

线性回归不适合分类问题,当增加一个样本时,拟合出的参数差别很大,不适合分类

逻辑函数或sigmoid函数:




正无穷对应趋于1,负无穷对应趋于0


感知器学习算法:



第4集  牛顿方法








迭代收敛的很快,二次方的速度,代价时每次重新计算Hessian矩阵(适合小数据集,速度快,大数据集在计算矩阵时花费代价大)


指数家族



贝努力分布——逻辑回归

高斯分布——最小二乘


GLM (Generalized Linear Models)广义线性模型


选择怎样的分布进行假设?
Bernouli:0,1问题建模
高斯: K个结果建模
泊松分布: 计数建模  例如:网站访问人数
伽马和指数分布:间隔问题建模,例如等公交车时间
beta,Dirichlet:小数建模

要做的是假设服从什么样的分布,后面的都一样



  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值