最全SPARK环境(集群、windows、linux)的搭建

本文详细介绍了如何在不同平台上搭建Spark环境,包括集群、Windows和Linux系统。首先确保配置好Hadoop和Java环境,然后分别进行Spark和Scala的安装、环境变量配置、Spark相关参数设置、启动HDFS以及进行Spark环境测试。在Windows环境下,需安装Java和Scala,解压Spark安装包并配置Python开发插件。在Linux环境下,同样需要安装Java,解压Spark和Hadoop,配置环境变量。文章最后提供了解压和复制文件的具体步骤。
摘要由CSDN通过智能技术生成

Spark集群环境搭建
    -0. 前提:配置好Hadoop和JAVA的开发环境
    
    -1. 上传Spark和Scala压缩包(到~/software文件夹中)
    
    -2. 解压压缩包
    $ tar -zxvf ~/software/spark-1.6.1-bin-2.5.0-cdh5.3.6\(cdh版本已经编译好的\).tgz -C ~/modules/
    $ tar -zxvf ~/software/scala-2.10.4.tgz -C ~/modules/
    
    -3. 配置环境变量
    $ vim ~/.bash_profile
# SCALA
export SCALA_HOME=/home/hadoop/modules/scala-2.10.4
export PATH=$PATH:$SCALA_HOME/bin

# SPARK
export SPARK_HOME=/home/hadoop/modules/spark-1.6.1-bin-2.5.0-cdh5.3.6
export PATH=$PATH:$SPARK_HOME/bin    
    $ source ~/.bash_profile
   

-4. 配置Spark相关参数项

        --1. 进入Spark根目录
        $ cd $SPARK_HOME
        
        --2. 修改配置文件
        $ mv conf/spark-env.sh.template conf/spark-env.sh
        $ vim conf/spark-env.sh
JAVA_HOME=

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值