搭建hadoop(1+x)

本文详细介绍了在Linux环境中设置Hadoop集群的步骤,包括停用防火墙、创建Hadoop用户、安装与配置Java、解压并配置Hadoop、修改相关配置文件、进行Namenode格式化以及启动Hadoop服务。还涉及到了SSH免密登录的设置,确保节点间的通信畅通。
摘要由CSDN通过智能技术生成

[root@VM-M-01597287170765 ~]# hostnamectl set-hostname master

[root@master ~]# bash

[root@master ~]# vi /etc/hosts (ip a或者ifconfigid)

必须要把自己的ip地址加上master打进去

[root@master ~]# systemctl stop firewalld

[root@master ~]# systemctl disable firewalld

创建Hadoop用户

[root@master ~]# useradd hadoop

[root@master ~]# passwd Hadoop

解压Java

[root@master ~]# rpm -qa | grep java

[root@master ~]# rpm -e --nodeps java-1.8.0-openjdk

[root@master ~]# rpm -e --nodeps java-1.8.0-openjdk-headless

[root@master ~]# tar -zxvf /opt/software/jdk-8u152-linux

x64.tar.gz -C /usr/local/src

[root@master ~]# mv /usr/local/src/jdk     /usr/local/src/java

Java的配置文件  背一下

[root@master ~]# vi /etc/profile

export JAVA_HOME=/usr/local/src/java

export PATH=$PATH:$JAVA_HOME/bin

生效 一定要打

[root@master ~]# source /etc/profile

解压Hadoop

[root@master ~]# tar -zxvf ~/hadoop-2.7.1.tar.gz -C /usr/local/src/

[root@master ~]# mv /usr/local/src/hadoop...     /usr/local/src/Hadoop

Hadoop的配置文件  背下来

[root@master ~]# vi /etc/profile

export HADOOP_HOME=/usr/local/src/hadoop

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

生效   一定要打

[root@master ~]# source /etc/profile

[root@master ~]# hadoop

Usage: hadoop [--config confdir] [COMMAND | CLASSNAME]

CLASSNAME run the class named CLASSNAME

…… 省略 ……

背下来  

[root@master ~]# chown -R hadoop:hadoop /usr/local/src

[root@master ~]# cd /usr/local/src/hadoop

[root@master ~]# vi etc/hadoop/hadoop-env.sh

export JAVA_HOME=/usr/local/src/java

export HADOOP_HOME=/usr/local/src/hadoop

免密登录(这里以后都用hadoop用户)

ssh-keygen -t rsa   然后一直回车

ssh-copy-id localhost

[root@master ~]# cd /usr/local/src/hadoop/etc/hadoop/

[root@master hadoop]# vi hdfs-site.xml

#在文件中<configuration></configuration>一对标签之间追加以下配置信息

<configuration>

<property>
  <name>dfs.replication</name>
  <value>1</value>
</property>

</configuration>

[root@master hadoop]# vi core-site.xml

#在文件中<configuration></configuration>一对标签之间追加以下配置信息

<configuration>

<property>
   <name>fs.defaultFS</name>
   <value>hdfs://localhost/</value>
</property>

</configuration>

[root@master hadoop]# vi mapred-site.xml

#在文件中<configuration></configuration>里面打进去

<configuration>

<property>
   <name>mapreduce.framework.name</name>
   <value>yarn</value>
</property>

</configuration>

[root@master hadoop]# vi yarn-site.xml

#在文件中<configuration></configuration>一对标签之间追加以下配置信息

<configuration>

<!-- Site specific YARN configuration properties -->

<property>
  <name>yarn.nodemanager.aux-services</name>
  <value>mapreduce_shuffle</value>
</property>

</configuration>

[root@master ~]# su – hadoop

[hadoop@master ~]# cd /usr/local/src/hadoop/

Namenode格式化

[hadoop@master hadoop]$ bin/hdfs namenode format

结果:

20/05/02 16:21:50 INFO namenode.NameNode: SHUTDOWN_MSG:

/************************************************************

SHUTDOWN_MSG: Shutting down NameNode at master/192.168.1.6

************************************************************/

[hadoop@master hadoop]$  start-all.sh

[hadoop@master hadoop]$  jps

3557 NameNode

3557 DataNode

3449 SecondaryNameNode

3287 ResourceManager

4600 NodeManager

3624 Jps

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值