Ubuntu中实现Hadoop集群

hadoop集群

准备工作:
具体查看同专栏
初入Ubuntu常见问题以及集群前的必要配置(1)
初入Ubuntu常见问题以及集群前的必要配置(2)
1、装系统
2、配置网络
3、虚拟机改名
4、配置hostname文件
3、APT软件源配置
6、安装openssh-server
7、关闭防火墙

java安装(以主节点为例)

1、上传jdk安装包,并解压

这里我直接用rz命令上传文件,不再用winscp,若想了解请看《云计算与大数据》专栏

先下载lrzsz工具

hadoop@ddai-master:~$ sudo apt install lrzsz

下载好后直接执行 rz 命令,会跳出文件选择的窗口,直接选择需要的即可(不适合比较大的文件,传送起来会比较慢)
在这里插入图片描述
传送好后查看:
在这里插入图片描述
解压到opt/目录下

hadoop@ddai-master:~$ sudo tar xzvf /home/hadoop/jdk-8u221-linux-x64.tar.gz -C /opt/

在这里插入图片描述

所有节点修改文件属性

hadoop@ddai-master:~$ sudo chown -R hadoop:hadoop /opt/  

2、所有节点编辑环境变量

hadoop@ddai-master:~$ vim /home/hadoop/.profile 

#添加
export JAVA_HOME=/opt/jdk1.8.0_221
export PATH=$JAVA_HOME/bin:$PATH

在这里插入图片描述

3、复制到从节点

hadoop@ddai-master:~$ scp -r /opt/jdk1.8.0_221/ hadoop@ddai-slave1:/opt/
hadoop@ddai-master:~$ scp -r /opt/jdk1.8.0_221/ hadoop@ddai-slave2:/opt/

4、使各节点jdk环境变量生效

hadoop@ddai-master:~$ source /home/hadoop/.profile 

5、测试

hadoop@ddai-master:~$ java -version
hadoop@ddai-master:~$ javac -version 

在这里插入图片描述

hadoop安装

1、上传hadoop安装包,并解压

用 rz 命令打开上传窗口,直接点击要上传的包
在这里插入图片描述
执行解压

hadoop@ddai-master:~$ sudo tar xzvf /home/hadoop/hadoop-2.8.5.tar.gz -C /opt/

2、所有节点编辑hadoop环境变量

hadoop@ddai-master:~$ vim /home/hadoop/.profile 
hadoop@ddai-slave1:~$ vim /home/hadoop/.profile 
hadoop@ddai-slave2:~$ vim /home/hadoop/.profile 


export HADOOP_HOME=/opt/hadoop-2.8.5
export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export JAVA_LIBRARY_PATH=$HADOOP_HOME/lib/native:$JAVA_LIBRARY_PATH
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

在这里插入图片描述

3、使所有节点hadoop环境变量生效

hadoop@ddai-master:~$ source /home/hadoop/.profile 
hadoop@ddai-slave1:~$ source /home/hadoop/.profile 
hadoop@ddai-slave2:~$ source /home/hadoop/.profile 

4、编辑hadoop配置文件(6个)

(1)hadoop-env.sh

hadoop@ddai-master:~$ sudo vim /opt/hadoop-2.8.5/etc/hadoop/hadoop-env.sh 

在这里插入图片描述
(2)core-site.xml

hadoop@ddai-master:~$ sudo vim /opt/hadoop-2.8.5/etc/hadoop/core-site.xml 

#内容如下
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://ddai-master:9000</value> 
    </property>
    
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/opt/hadoop-2.8.5/tmp</value>
        <description>Abase for other temporary directories.</description>
    </property>
    
    <property>
        <name>hadoop.proxyuser.hadoop.hosts</name>
        <value>*</value>
    </property>
    
    <property>
        <name>hadoop.proxyuser.hadoop.groups</name>
        <value>*</value>
    </property>
</configuration>

(3)hdfs-site.xml

hadoop@ddai-master:~$ sudo vim /opt/hadoop-2.8.5/etc/hadoop/hdfs-site.xml 

#内容如下
<configuration>  
  <property>
    <name>dfs.namenode.secondary.http-address</name>
    <value>ddai-master:50090</value>
  </property>
  
  <property>
    <name>dfs.replication</name>
    <value>3</value>
  </property>
  
  <property>
    <name>dfs.namenode.name.dir</name>
    <value>/opt/hadoop-2.8.5/dfs/name</value>
  </property>
  
  <property>
    <name>dfs.datanode.data.dir</name>
    <value>/opt/hadoop-2.8.5/dfs/data</value>
  </property>
  
  <property>
    <name>fs.checkpoint.dir</name>
    <value>/opt/hadoop-2.8.5/dfs/namesecondary</value>
  </property>
  
  <property>
    <name>dfs.block.size</name>
    <value>134217728</value>
  </property>
  
  <property>
    <name>dfs.namenode.handler.count</name>
    <value>20</value>
  </property>
  
  <property>
    <name>dfs.permissions</name>
    <value>false</value>
  </property>

</configuration>

(4)mapred-site.xml

hadoop@ddai-master:~$ sudo mv /opt/hadoop-2.8.5/etc/hadoop/mapred-site.xml.template /opt/hadoop-2.8.5/etc/hadoop/mapred-site.xml
hadoop@ddai-master:~$ sudo vim /opt/hadoop-2.8.5/etc/hadoop/mapred-site.xml 

#先进行修改文件名,再添加内容如下
<configuration>
  <property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
  </property>
  
  <property>
    <name>mapreduce.jobhistory.address</name>
    <value>ddai-master:10020</value>
  </property>
  
  <property>
    <name>mapreduce.jobhistory.webapp.address</name>
    <value>ddai-master:19888</value>
  </property>
</configuration>

(5)yarn-site.xml

hadoop@ddai-master:~$ sudo vim /opt/hadoop-2.8.5/etc/hadoop/yarn-site.xml

#内容如下 
<configuration>
  <property>
    <name>yarn.resourcemanager.hostname</name>
    <value>ddai-master</value>
  </property>
  <property>
    <name>yarn.nodemanager.aux-services</name>
    <value>mapreduce_shuffle</value>
  </property>
</configuration>

(6)slaves

hadoop@ddai-master:~$ sudo vim /opt/hadoop-2.8.5/etc/hadoop/slaves

#内容如下 
ddai-slave1
ddai-slave2

5、复制到从节点

hadoop@ddai-master:~$ sudo scp -r /opt/hadoop-2.8.5 hadoop@ddai-slave1:/opt
hadoop@ddai-master:~$ sudo scp -r /opt/hadoop-2.8.5 hadoop@ddai-slave2:/opt

6、修改文件属性

所有节点执行修改属性命令

hadoop@ddai-master:~$ sudo chown -R hadoop:hadoop /opt/*
hadoop@ddai-slave1:~$ sudo chown -R hadoop:hadoop /opt/*
hadoop@ddai-slave2:~$ sudo chown -R hadoop:hadoop /opt/*

hadoop启动测试

1、格式化namenode

hadoop@ddai-master:~$ hdfs namenode -format

成功后为如下显示:
在这里插入图片描述

2、启动hadoop

在这里插入图片描述
若要关闭执行命令

stop-all.sh

3、启动jobhistoryserver

在这里插入图片描述
若要关闭执行

mr-jobhistory-daemon.sh stop historyserver

4、查看各节点进程

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述

5、查看对应网址(两个)

在这里插入图片描述
在这里插入图片描述

在这里插入图片描述
在这里插入图片描述

6、查找DFS报告和文件块检查

DFS报告如下
在这里插入图片描述
文件块检查如下
在这里插入图片描述

Hadoop shell

在HDFS中创建目录,并写入文件上传查看

创建写入:
在这里插入图片描述
上传查看文件:
在这里插入图片描述

  • 1
    点赞
  • 6
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

侬本多情。

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值