安装Hadoop伪分布式及spark Local模式

一、前期准备工作

  1. 添加一个hadoop用户(可以跳过,但是后面使用的用户就需要根据你自己的用户修改了)
  • 在终端输入下面命令,创建hadoop用户,并指定shell为/bin/bash

    sudo useradd -m hadoop -s /bin/bash
    
  • 通过下面命令设置hadoop用户密码,按照提示输入两次密码。在这里我也将hadoop用户密码设置为hadoop,虽然会提示密码不能少于8位,但是不用管这个提示,我们也将密码设置为hadoop就可以了。

    sudo passwd hadoop
    
  • 为hadoop用户添加使用sudo权限的权限(不然hadoop用户不能使用sudo)

    sudo adduser hadoop sudo
    
  1. 配置JAVA环境
  • 准备jdk包(注意命名,后面配置的环境变量可能会有影响),也可以从我给的链接下
    通过百度网盘分享的文件:jdk-8u37…
    链接:https://pan.baidu.com/s/1F4QG_-I_e2ETUjlcFc9aZQ?pwd=z9t2 
    提取码:z9t2
    复制这段内容打开「百度网盘APP 即可获取」
    
  • 上传jdk-linux的包到虚拟机,并使用tar -zxvf <jdk地址> -C /usr/lib/jvm将其解压到/usr/lib/jvm目录(需要自己创建jvm目录)
    在这里插入图片描述
  • 要是不放心可以cd /usr/lib/jvm看一下是否多了一个jdk文件夹
  • 修改环境变量vim ~/.bashrc
    在这里插入图片描述
    # 添加下面内容
    export JAVA_HOME=/usr/lib/jvm/jdk1.8.0_371
    export JRE_HOME=${JAVA_HOME}/jre
    export CLASSPATH=.:${JAVA_HOME}/lib:${JRE_HOME}/lib
    export PATH=${JAVA_HOME}/bin:$PATH
    
  • 保存退出.bashrc,使用source ~/.bashrc让我们刚刚的配置生效。使用java -version查看是否配置java成功
    在这里插入图片描述

二、 安装Hadoop伪分布式

Hadoop下载地址:https://dlcdn.apache.org/hadoop/common/,我下的是hadoop-3.3.6.tar.gz 696M的那个

  1. 使用tar命令解压Hadoop包到/usr/local目录
    在这里插入图片描述
  2. 使用chown修改Hadoop权限,查看相关版本信息
    在这里插入图片描述
  3. 修改配置文件 /usr/local/hadoop(这个hadoop是我们解压后重命名的文件夹名)/etc/hadoop/目录下
  • core-site.xml
    <configuration>
        <property>
            <name>hadoop.tmp.dir</name>
            <value>file:/usr/local/hadoop/tmp</value>
            <description>Abase for other temporary directories.</description>
        </property>
        <property>
            <name>fs.defaultFS</name>
            <value>hdfs://localhost:9000</value>
        </property>
    </configuration>
    
  • hdfs-site.xml
    <configuration>
        <property>
            <name>dfs.replication</name>
            <value>1</value>
        </property>
        <property>
            <name>dfs.namenode.name.dir</name>
            <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
            <name>dfs.datanode.data.dir</name>
            <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
    </configuration>
    
  1. 格式化NameNode名称节点

    cd /usr/local/hadoop
    ./bin/hdfs namenode -format
    

    在这里插入图片描述

  2. 启动Hadoop,开启守护进程,通过JPS查看进程数目应该是4个

    cd /usr/local/hadoop
    ./sbin/start-dfs.sh
    

    在这里插入图片描述

  3. 浏览器查看localhost:9870(或者ip:9870)
    在这里插入图片描述

三、安装Spark Local模式

下载地址:https://archive.apache.org/dist/spark/,我这里下的是spark-3.4.2-bin-without-hadoop.tgz

  1. 使用tar命令解压spark包到/usr/local目录
    在这里插入图片描述

  2. 修改解压后的文件夹为spark,并修改内容所有者和所属组为hadoop
    在这里插入图片描述

  3. 修改./conf/spark-env.sh配置文件(需要使用cp复制模板文件再进行修改)

    cd /usr/local/spark
    cp ./conf/spark-env.sh.template ./conf/spark-env.sh
    

    在这里插入图片描述

    export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
    

    在这里插入图片描述

  4. 看spark是否安装成功

    cd /usr/local/spark
    bin/run-example SparkPi 2>&1 | grep "Pi is"
    

    虽然结果可能不一定是3.14……
    在这里插入图片描述

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值