Spark之伪分布式搭建、伪分布式Hadoop、Hive安装

    怎么在本地安装Spark,这里就不再描述了。

    List-1

#在SPARK_HOME/conf下
>cp slaves.template slaves
#之后在slaves里面写入hostname,如下
>more slaves
mjduan-host


>cp spark-env.sh.template spark-env.sh
#修改spark-env.sh,写入如下内容,SPARK_MASTER_IP写mjduan-host
>more spark-env.sh 
export JAVA_HOME=/opt/software/tool/jdk1.8
export HADOOP_HOME=/opt/software/docker/hadoop/hadoop-2.7.7
export SCALA_HOME=/opt/software/tool/scala2.12
export HADOOP_CONF_DIR=/opt/software/docker/hadoop/hadoop-2.7.7/etc/hadoop
export SPARK_MASTER_IP=mjduan-host
export SPARK_WORKER_MEMORY=2048M


    之后进入$SPARK_HOME/sbin下,执行start-all.sh,可以看下是否启动成功,之后去看localhost:8080,可以看到spark的界面。

    jps命令可以看到有个Master和Worker。

    注意,启动Spark是可以启动的,但是如果往Spark上提交程序,Spark默认会从hdfs读取数据,而不是本地。所以要安装好HADOOP,安装Hadoop的时候,带上了hdfs、yarn都安装好了。

    给Spark提交任务,master后面的URL,如果不知道,可以从日志中看到或者Spark UI界面中看到。

    List-2

spark-submit  --class com.mjduan.project.SimpleApp  --master spark://mjduan-host:7077  Spark-helloworld.jar

    安装Hadoop-2.7,Hive-2.3,参考: https://blog.csdn.net/u013332124/article/details/85223496 ,左边安装Hadoop的教程里面,没有设置yarn,要配置yarn,不然在hive命令行中进入insert时会报错,配置yarn参考: https://blog.csdn.net/linbo_18874208784/article/details/74178236,在安装Hive时,报用户无法访问hive,要修改hive的配置文件,参考: https://stackoverflow.com/questions/40603714/hive-is-not-allowed-to-impersonate-hive

    Spark伪分布式的安装,参考: https://blog.csdn.net/zhihaoma/article/details/52296645

   

转载于:https://my.oschina.net/u/2518341/blog/3031605

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值