liunx安装spark

目录

一.spark安装包:

二.用xftp导入到vm虚拟机的/opt/install目录中,再在shell中ls展示:

 三.解压spark至soft目录,并将其改名为spark312

四.配置spark的环境变量

 五.配置spark312

在spark312/conf/目录下拷贝一份spark-env.sh.template并且重新命名为spark-env.sh

 修改spark-env.sh

 在74行下面配置spark

六.输入spark-shell进入黑窗口模式开始spark编写:

想从外部导包的话得先启动hadoop

 将一个文件导入hadoop的tmp目录中

输入下面代码将workCount内容展示 


一.spark安装包:

链接:https://pan.baidu.com/s/1hZ330QAwjvSGqGCgq_JqAg?pwd=9bt7 
提取码:9bt7 

二.用xftp导入到vm虚拟机的/opt/install目录中,再在shell中ls展示:

 三.解压spark至soft目录,并将其改名为spark312

[root@gree2 install]# tar -zxf spark-3.1.2-bin-hadoop3.2.tgz -C ../soft
[root@gree2 install]# mv spark-3.1.2-bin-hadoop3.2/ spark312

四.配置spark的环境变量

 [root@gree2 soft]# vim /etc/profile

#SPARK_HOME
export SPARK_HOME=/opt/soft/spark312
export PATH=$PATH:$SPARK_HOME/bin

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值