机器学习(李宏毅)—— Linear Regression

Regression:输入可以是股票市场的各种指数、自动驾驶的检测角度、大数据推荐系统,输出是数字。

实例:宝可梦的CP值(战斗力)预测
        输入x的内容包含x_{cp},x_{s},x_{hp},x_{w},x_{h},分别代表宝可梦的当前战斗力,种类,生命力,体重和身高;输出则是进化后宝可梦的战斗力。即f(x)=y,y就是我们要找的函数。

Step1:函数(或者称为模型Model)
        假设函数为y=b+w\cdot x_{cp},综合考虑影响宝可梦战斗力的其他因素,可以得到更为全面的Linear Model:y=b+\sum w_{i}\cdot x_{i},x_{i}是输入x的feature、w_{i}是权重、b是bias。
Step2:函数的性能评价
        定义损失函数Loss FunctionL(f)=L(w,b)=\sum_{n=1}^{10}(\hat{y}^{n}-(b+w\cdot x_{cp}^{n}))^{2},\hat{y}^{n}是当前宝可梦的真实战斗力。输入是上述函数y,输出是该函数的性能评价。
Step3:筛选最好的函数
        f^{\ast }=arg\underset{f}{min}L(f)或者w^{\ast },b^{\ast }=arg\underset{w,b}{min}L(w,b),采用Gradient Descent方法筛选出最好的函数。对于上述损失函数L(f)=L(w,b)

  • 随机选取一个初始值w^{0},b^{0}
  • 计算\frac{\partial L}{\partial w}\ |_{w=w^{0}},\frac{\partial L}{\partial b}\ |_{b=b^{0}},令w^{1}=w^{0}-\eta \cdot \frac{\partial L}{\partial w}\ |_{w=w^{0}},b^{1}=b^{0}-\eta \cdot \frac{\partial L}{\partial b}\ |_{b=b^{0}}\eta是学习率
  • 重复上述两步......

        对于Linear Model,根据梯度下降方法得到的局部最优解同时也是全局最优解(凸优化理论)。分别得到该模型在训练集和数据集的错误率,可以发现适量增加x_{cp}的次数可以减少错误率(重构模型为y=b+w_{1}\cdot x_{cp}+w_{2}\cdot x_{cp}^{2}+w_{3}\cdot x_{cp}^{3}时在测试集上的错误率最低)。

Underfitting(欠拟合):模型不能很好的拟合训练集的数据,即模型有很大的bias(偏差)。
Overfitting(过拟合):模型可以很好的拟合训练集的数据,但是在测试集上有很大的误差,即模型有很大的variance(方差)。当模型越来越复杂时,bias越来越小而variance会变大。
对于欠拟合,可以重新设计模型:在输入上增加更多的特征;更复杂的模型。对于过拟合,可以从数据集和模型两个方面进行处理:更多的数据集(非常有效,但不是一直奏效);regularization(正则化,使模型的预测曲线趋于平滑,但有可能增大bias)。

将原始训练集划分为Training(新训练集)和Validation(验证集):训练集是为了训练模型,验证集是为了筛选最好的模型。还可以将原始训练集划分为两份新训练集和一份验证集(循环划分)。

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值