Spark 入门之一:CentOS 6.5 下Spark 1.4 的安装以及配置

  1. 机器配置
    集群全部使用VM虚拟机环境进行部署
    主机名
    角色
    配置
    centos01 NameNode,JournalNode,Master,ResourceManager,QuorumPeerMain
    2G,1核,20G
    centos02
    Worker,NodeManager,DataNode,QuorumPeerMain,JournalNode
    1G,1核,20G
    centos03
    Worker,NodeManager,DataNode,QuorumPeerMain,JournalNode
    1G,1核,20G
  2. 版本信息
    软件名称
    版本
    JDK
    jdk1.7.0_55
    Zookeeper
    zookeeper-3.4.6
    Hadoop
    hadoop-2.6.0
    Scala
    scala-2.10.4
    Spark
    spark-1.4.1-bin-hadoop2.6 
  3. 部署过程
    1. Hadoop 的部署过程参见:http://blog.csdn.net/eric_sunah/article/details/43966593,确保Hadoop集群启动成功
    2. 配置Scala,每个节点上执行下面操作
      1. 下载Scala:http://www.scala-lang.org/files/archive/scala-2.10.4.tgz
    3. 配置Spark
      1. 下载Spark:http://www.apache.org/dyn/closer.cgi/spark/spark-1.4.1/spark-1.4.1-bin-hadoop2.6.tgz
      2. 在每个节点上配置环境变量
        export JAVA_HOME=/opt/cloud/jdk1.7.0_55 
        export SCALA_HOME=/opt/cloud/scala-2.10.4  
        export SPARK_HOME=/opt/cloud/spark-1.4.1-bin-hadoop2.6  
        export PATH=$JAVA_HOME/bin:$PATH:$SCALA_HOME/bin:$SPARK_HOME/bin
      3. 在centos01上编辑/opt/cloud/spark-1.4.1-bin-hadoop2.6/conf/slaves文件,内容如下:
        centos02
        centos03
      4. 在centos01上追加以下内容到/opt/cloud/spark-1.4.1-bin-hadoop2.6/conf/spark-env.sh 文件:
        export JAVA_HOME=/opt/cloud/jdk1.7.0_55 
        export SCALA_HOME=/opt/cloud/scala-2.10.4 
        export SPARK_HOME=/opt/cloud/spark-1.4.1-bin-hadoop2.6 
        export HADOOP_HOME=/opt/cloud/hadoop-2.6.0 
        export HADOOP_CONF_DIR=/opt/cloud/hadoop-2.6.0/etc/hadoop 
        export SPARK_MASTER_IP=centos01 
        export SPARK_WORKER_MEMORY=1g
      5. 将centos01的配置文件拷贝到centos02,centos03上
      6. 在centos01上执行:/opt/cloud/spark-1.4.1-bin-hadoop2.6/sbin/start-all.sh
  4. 测试验证
    1. URL验证:访问 http://centos01:8080/
    2. 功能验证
      1. 执行bin/spark-shell,执行完命令后,可以访问http://centos01:4040/jobs/ 
      2. 上传测试文件: ./hadoop fs -put /opt/cloud/spark-1.4.1-bin-hadoop2.6/README.md /data/
      3. 在spark-shell中依次输入下面的代码
        1. val file=sc.textFile("hdfs://centos01:9000/data/README.md")
        2. val count=file.flatMap(line=> line.split(" ")).map(word=> (word,1)).reduceByKey(_+_)
        3. count.collect
        4. 通过http://centos01:4040/jobs/ 查看成功执行的job


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值