线性回归原理与spark/sklearn实现

本文介绍了线性回归的基本原理,对比了线性回归与逻辑回归的区别。接着通过实例详细讲解了如何在Spark 2.0.2中实现线性回归,包括数据准备、模型训练及评估。最后,文章探讨了使用Python的scikit-learn库进行一元和多元线性回归的步骤。
摘要由CSDN通过智能技术生成

线性回归原理与spark/sklearn实现

@(SPARK)[spark, ML]

一、算法原理

1、线程回归与逻辑回归的区别

线性回归是一种很直观的数值拟合方式,它认为目标变量和属性值之间存在线性的关系。

image
逻辑回归是一种分类的方法,它给出一个拟合函数,将属性输入这个函数,大于某个值的属于一类,小于这个值的属于另一类。

image

二、spark实现

基于2.0.2版本

1、准备数据
0 1:0 2:0
2 1:1 2:1
4 1:2 2:2
8 1:4 2:4
16 1:8 2:8
6 1:3 2:3
10 1:5 2:5
12 1:6 2:6
14 1:7 2:7
200 1:100 2:100
400 1:200 2:200
1000 1:500 2:500
10000 1:5000 2:5000
100000 1:50000 2:50000
500 1:250 2:250
1000000 1:500000 2:500000

上面的数据期待的回归结果应该是y=x1+x2。
将上述文件put至hdfs。

2、导入数据

scala> val trai
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值