spark的搭建--Day4

一:安装并配置scala

export SCALA_HOME=/usr/local/scala/scala-2.11.12
export PATH=$PATH:$SCALA_HOME/bin

二:安装配置spark

1:配置环境变量

export SPARK_HOME=/usr/local/spark/spark-2.3.1-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin

执行命令:source ~/.bashrc

2:修改日志配置

将spark/conf下的og4j.properties.template重命名为log4j.properties,并将所有INFO改为WARN

3:创建并修改spark.env.sh

将spark/conf下的spark-env.sh.template重命名为 spark-env.sh,并添加如下配置

export JAVA_HOME=/usr/local/java/jdk1.8.0_161 
export SPARK_MASTER_IP=master
export SPARK_WORKER_CORES=1
export SPARK_WORKER_MEMORY=100m
export SPARK_WORKER_INSTANCES=1

三:集群配置

1:spark基本配置

与单机相同

2:配置slaves

将spark/conf下的slaves.template重命名slaves,并添加IP映射名,如下、

slaver1
slaver2

四:spark的启动

1:启动服务

进入sbin目录下,执行

./start-all.sh

2:启动客户端

因为配置了全局变量,所以直接执行命令

scala:

spark-shell

python

pyspark

 

3:关闭客户端

scala:

exit()

python

exit()

4:关闭服务

进入sbin目录下,执行

./stop-all.sh

五:配置ipython

1:安装pip

sudo apt-get install python-pip

2:安装ipython

sudo apt-get install ipython

3:设置pyspark启动ipython

修改spark/bin目录下的pyspark文件

六:配置spark运行的环境变量

1:在~/.bashrc中

export  LD_LIBRARY_PATH=$HADOOP_HOME/lib/native
export SPARK_HOME=spark安装目录
export PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-0.10.7-src.zip:$PYTHONPATH

2:在spark/conf/spark-env.sh中

export  LD_LIBRARY_PATH=$HADOOP_HOME/lib/native

 

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值