回归算法预测波士顿地区房价

正规方程(LinearRegression)梯度下降(SGDRegressor)
适用于小规模数据集特征数量<100K 适用于大规模数据集>10K
一次运算得出需要指定学习率, 须多次运算(迭代)得出
只适用于线性模型(可能出现过拟合问题)适用于各种模型
from sklearn.linear_model import LinearRegression, SGDRegressor, Ridge, LogisticRegression
from sklearn.datasets import load_boston
from sklearn.model_selection import train_test_split
from sklearn.preprocessing import StandardScaler
from sklearn.metrics import mean_squared_error
from sklearn.externals import joblib

def boston_line():

    lb = load_boston()
    x_train, x_test, y_train, y_test = train_test_split(lb.data, lb.target, test_size=0.25)

    # 为数据增加一个维度,相当于把[1, 5, 10] 变成 [[1, 5, 10],]
    y_train = y_train.reshape(-1, 1)
    y_test = y_test.reshape(-1, 1)

    # 进行标准化
    std_x = StandardScaler()
    x_train = std_x.fit_transform(x_train)
    x_test = std_x.transform(x_test)

    std_y = StandardScaler()
    y_train = std_y.fit_transform(y_train)
    y_test = std_y.transform(y_test)

    # 正规方程预测
    lr = LinearRegression()
    lr.fit(x_train, y_train)
    lr_predict = std_y.inverse_transform(lr.predict(x_test))
    print("正规方程预测出的系数为:", lr.coef_)
    # 计算均方误差参数必须使用标准化之前的值
    print("正规方程的均方误差为:", mean_squared_error(std_y.inverse_transform(y_test),lr_predict))
    print("正规方程预测出的结果为:", lr_predict)


    # 梯度下降预测
    sgd = SGDRegressor()
    sgd.fit(x_train, y_train)
    sgd_predict = std_y.inverse_transform(sgd.predict(x_test))
    print("梯度下降预测出的系数为:", sgd.coef_)
    # 计算均方误差参数必须使用标准化之前的值
    print("梯度下降的均方误差为:", mean_squared_error(std_y.inverse_transform(y_test),sgd_predict))
    print("梯度下降预测出的结果为:", sgd_predict)


    # 岭回归下降预测(alpha为正则化力度, 数值越大,特征对最后的结果影响越小)
    rid = Ridge(alpha=1.0)
    rid.fit(x_train, y_train)
    rid_predict = std_y.inverse_transform(rid.predict(x_test))
    print("岭回归预测出的系数为:", rid.coef_)
    # 计算均方误差参数必须使用标准化之前的值
    print("岭回归的均方误差为:", mean_squared_error(std_y.inverse_transform(y_test),rid_predict))
    print("岭回归预测出的结果为:", rid_predict)


    # 保存岭回归的模型(pkl格式)
    joblib.dump(rid, "./rid_model.pkl")

    # 加载岭回归的模型

    new_rid = joblib.load("./rid_model.pkl")
    new_rid_predict = std_y.inverse_transform(new_rid.predict(x_test))
    print("模型-->岭回归预测出的系数为:", rid.coef_)
    # 计算均方误差参数必须使用标准化之前的值
    print("模型-->岭回归的均方误差为:", mean_squared_error(std_y.inverse_transform(y_test),new_rid_predict))
    print("模型-->岭回归预测出的结果为:", new_rid_predict)

if __name__ == '__main__':
    boston_line()

正规方程
梯度下降
岭回归
岭回归模型

关于拟合曲线程度的判定(正常拟合为最佳)

拟合曲线

关于拟合程度(以识别汽车为例):

欠拟合:

如果只选取"四个轮子",作为判断汽车的依据, 那"超市小推车"可能也会被识别为汽车,这就是欠拟合

过拟合:

如果选取"四个轮子","有发动机", "有方向盘","黑色",作为汽车的判断依据,那"红色的跑车"就无法被识别为汽车,显然这里多选用了"黑色"这一特征,这就是过拟合

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
你在学习Python数据分析的时候,是否遇到过在这些问题? 别慌!这些都是数据科学入门常见问题。从入门到上手再到解决实际问题,数据科学看似复杂,但如果你掌握了正确的学习方法,完全可以极速入门。 【职场人进阶必备  数据分析/挖掘一点通】 如今的职场上,90%以上的岗位都会涉及数据问题。 以产品文案岗位为例,在一个新产品推向市场之前,文案需要考虑: 此时,可以关注一下市场上已有的相关产品推广数据,如:哪些文案打开率更高?哪些文案转化更好?目标用户的购买习惯如何? 以此作为下一步工作开展的依据,对产品文案工作者来说,可以少走很多弯路。 学会数据分析/挖掘,等于站巨人的肩膀上工作,轻松且高效。 【爬虫、数据分析、数据挖掘知识点三合一】数据问题一网打尽 本课程将知识点悉数融入实战项目,不空谈语法,帮助学员在实践中获取知识,目标是:让学员能自主完成数据采集、数据分析与数据挖掘。 学习完本课程,你可以熟练掌握: 【实战案例超实用,轻松拥有“睡后收入”!】 本课程以股票案例为主线,串联爬虫、数据分析以及数据挖掘多个知识点。 通过实战案例演练,你可以全面掌握股票收益的分析和预判方法,在收获新技能的同时,也有机会获得“睡后收入”! 四大优势: 三重权益:

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值