学习总结3.19

1.安装Hadoop集群中4个配置文件的标签不能错,要在英文状态下输入不然会出现这种情况8922f2ef980f426ca0a4ec829aca1a17.png

 2.安装spark之前先安装Scala

解压Scala后配置文件etc/profile然后使配置的环境变量生效

d33ef13a23d84a498ab81698d0e853a7.jpg

 有版本显示说明安装成功

3.安装spark

先解压至/usr/local/src/

配置环境变量中有Java的位置Hadoop的位置需要设置清楚

11bcbf56491d4b6dbe955d58eb292755.jpg

 启动spark的主节点

start-master.sh在sbin下面启动

命令如下./start-all.sh

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值