windows10安装配置sparkR

1.确保安装JDK1.8+

2.安装scala2.12.4

3.安装spark2.2.1

4.安装hadoop2.9.0

5.安装R3.4.3

6.R中安装rjava和devtools两个包

7.library(SparkR)(先把下载的spark中的R包放到R的安装目录库里)

8.下载对应的winutils.exe放到hadoop的bin下面

9.在path里设置好所有bin,添加JAVA_HOME,SPARK_HOME,HADOOP_HOME为各程序的安装目录

10.winutils.exe chmod 777 c:\tmp\hive 修改tmp的读写权限

11.通过http://localhost:4041/访问sparkui(端口可能会变化)

 

在Rstudio中建立与spark的连接:

library(SparkR)

library(rJava)

library(devtools)

sparkR.session(master = "local")

使用df <- as.DataFrame(faithful)来检测是否成功创建sparkdataframe

 

转载于:https://www.cnblogs.com/celestia/p/8253958.html

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值