spark第5天

发现按照之前论坛文章来没有安装spark和hadoop。。
按照这篇博文来操作后,由于去下载的最新的spark和Hadoop,对于我的jdk来说跟不上
文章里的版本是jdk1.8.0_101,我是1.8.0_131,比他还新,所以尝试用文章中的spark和Hadoop版本
可以做一个对比

项目文章
jdk1.8.0_1011.8.0_131
scala2.10.62.10.6
spark1.6.21.6.2
Hadoop2.6.42.6.4

其中spark是pre-build的版本,即pre-build for Hadoop2.6,是编译好了可以直接用。如果下载spark源码的话需要自己手动编译。下载好直接解压到盘根目录下即可。同时,Hadoop也是下载的已编译好的版本。

安装完成后
这里写图片描述

接下来找个spark程序跑一下吧

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值