Linux安装单机版Spark(CentOS7+Spark2.1.1+Scala2.12.2)

本文详述了如何在CentOS7系统上安装Spark 2.1.1,包括Scala的安装、配置环境变量、Spark的下载与解压、相关配置以及测试单机模式的Spark运行。教程涵盖Scala环境配置、Spark配置文件的修改,以及如何运行Spark示例程序和启动Spark Shell。
摘要由CSDN通过智能技术生成


1 安装Spark依赖的Scala

        1.2 为Scala配置环境变量

        1.3 验证Scala

2下载和解压缩Spark

3 Spark相关的配置

         3.1 配置环境变量

         3.2 配置conf目录下的文件

                   3.2.1 新建spark-env.h文件

                   3.2.2 新建slaves文件

4 测试单机模式的Spark

         4.1 用单机模式运行Spark示例程序

         4.2 启动Spark  Shell命令行窗口

 

关键字:Linux   CentOS    Spark   Scala   Java

版本号:CentOS7     Spark2.1.1   Scala2.12.2   JDK1.8

 

 说明:单机版的Spark的机器上只需要安装ScalaJDK即可,其他诸如HadoopZookeeper之类的东西可以一概不安装。如果要安装基于HadoopSpark集群,请参考该博文:

http://blog.csdn.net/pucao_cug/article/details/72353701

 

1 安装Spark依赖的Scala

     Scala的下载和解压缩可以参考下面博文的对应章节,步骤和方法一模一样:

http://blog.csdn.net/pucao_cug/article/details/72353701

    

1.2 为Scala配置环境变量

     编辑/etc/profile这个文件,在文件中增加一行配置:

  export    SCALA_HOME=/opt/scala/scala-2.12.2

  在该文件的PATH变量中增加下面的内容:

  ${SCALA_HOME}/bin

添加完成后,我的/etc/profile的配置如下:

export JAVA_HOME=/opt/java/jdk1.8.0_121
export SCALA_HOME=/opt/scala/scala-2.12.2
export CLASS_PATH=.:${JAVA_HOME}/lib:$CLASS_PATH
export PATH=.:${JAVA_HOME}/bin: ${SCALA_HOME}/bin:$PATH

  环境变量配置完成后,执行下面的命令:

source    /etc/profile

1.3  验证Scala

     执行命令:

scala  -version

如图:

   

2 下载和解压缩Spark

      下载和解压缩Spark可以参考该博文的下载和解压缩章节,步骤和方法一模一样:

   

评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值