【Tool】Linux下的Spark安装及使用

1. 确保自己的电脑安装了JAVA Development Kit JDK, 用来编译Java应用, 如 Apache AntApache MavenEclipse. 这里是我们安装Spark的支持环境.

 查看自己是否安装了JDK: java -version

 这里我已经安装了所以显示的是JDK的版本信息, 如果没有安装则显示"The program java can be found in the following packages"  

 

2. 安装好Java环境之后可以在Spark官网上下载自己要的Spark版本:  http://spark.apache.org/downloads.html 

 下载之后解压缩: tar -xf    spark-***-bin-hadoop**.tgz(对应着你下载的版本号)

3. 更新profile文件:  sudo vi ~/etc/profile  在后面加入: 

 

SPARK_HOME=/home/vincent/Downloads/spark 
#(解压后的包所在的路径, 这里我将解压后的Spark重新命名为spark了)
PATH=$PATH:${SPARK_HOME}/bin

4. 进入spark安装位置, 然后进入spark中的 bin 文件夹

运行: ./bin/spark-shell   运行scala

 运行: ./bin/pyspark    (python)

 5. 调整日志级别控制输出的信息量:

 在conf目录下将log4j.properties.template 复制为  log4j.properties, 然后找到 log4j.rootCategory = INFO, console

将INFO改为WARN (也可以设置为其他级别)

之后再打开shell输入信息量会减少.

 

转载于:https://www.cnblogs.com/vincentcheng/p/7482643.html

  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值