Hadoop完全分布式搭建流程---超详细

1.克隆两个节点

2.修改静态IP

3.修改主机名:【master(主),slave1(从),slave2(从)】

4.修改IP和主机名的映射:【/etc/hosts】

5.SSH无密登录:

a.修改hostname

$>su root

$>gedit   /etc/sysconfig/network

【HOSTNAME=master】

b.修改hosts文件

$>gedit   /etc/hosts

【在文件后追加:IP 主机名:192.168.154.128 master】

c.reboot

d.生成密钥

$>ssh-keygen  -t  rsa  -P  ''  -f  ~/.ssh/id_rsa

【说明:-t设置生成密钥的算法,采用的rsa;-P设置密码,默认为空;-f设置密钥生成的文件位置,~/.ssh】

e.生成认证库

$>cat  ~/.ssh/id_rsa.pub >>  ~/.ssh/authorized_keys

f.修改认证库权限为600

$>chmod  600  ~/.ssh/authorized_keys

g.ssh  master

6.解压相关软件

$>tar  -zxvf  jdk1.8.xxx.tar.gz

$>tar  -zxvf  hadoop-2.7.3.tar.gz

7.创建软连接

$>ln  -s  jdk1.8.0_121/  jdk

$>ln  -s  hadoop-2.7.3/  hadoop

8.修改环境变量

$>cd  ~

$>gedit  .bash_profile

   在文件最后追加以下命令:

#jdk  install

export   JAVA_HOME=/home/hyxy/soft/jdk/jdk

export   PATH=$JAVA_HOME/bin:$PATH

#hadoop   install

export   HADOOP_HOME=/home/hyxy/soft/hadoop/hadoop

export   PATH=$HADOOP_HOME/bin:$HADOOP_HOMR/sbin:$PATH

       $>source   .bash_profile

注意:刷新完之后,当前会话可用,建议reboot(重启)

9.修改hadoop配置文件

      a.core-site.xml

    <property>

<name>fs.defaultFS</name>

<value>hdfs://master:9000</value>

 </property>

 

 <property>

<name>hadoop.tmp.dir</name>

<value>/home/hyxy/tmp/hadoop</value>

</property>

b.hdfs-site.xml

<property>

      <name>dfs.replication</name>

      <value>3</value>

</property>

      c.mapred-site.xml

            <property>

  <name>mapreduce.framework.name</name>

  <value>yarn</value>

  <description>

The runtime framework for executing MapReduce jobs.Can be one of local, classic or yarn.

  </description>

               </property>

       d.yarn-site.xml

  <property>

           <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

         <description>A comma separated list of services where service name should only

      contain a-zA-Z0-9_ and can not start with numbers</description>

  </property>

  <property>

    <description>The hostname of the RM.</description>

    <name>yarn.resourcemanager.hostname</name>

    <value>master</value>

  </property>

       e.slaves

  添加datanode节点名称,以行为准

      slave1

      slave2

       f.hadoop-env.sh

           #配置JAVA_HOME

   【注意:

1).将hosts文件分发所有从节点:

   $>scp /etc/hosts hyxy@slave1:/etc/

   $>scp /etc/hosts hyxy@slave2:/etc/

2).将hadoop目录分发到所有从节点

   $>scp -r ~/soft/hadoop/ hyxy@slave1:/home/hyxy/soft

   $>scp -r ~/soft/hadoop/ hyxy@slave2:/home/hyxy/soft

    】

    10.格式化

       a. 删除hadoop.tmp.dir设置路径下的所有文件(所有节点)

       b. 删除HADOOP_LOG_DIR设置路径下的日志文件(所有节点)

       c. 格式化:

           $>hdfs namenode -format(主节点)

    11.开启完全分布式

          $>start-all.sh

 

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
以下是 Hadoop 完全分布式搭建详细流程: 1. 准备工作 在开始搭建之前,需要准备好以下工作: - 安装好 Java 环境,并配置好 JAVA_HOME 环境变量。 - 下载 Hadoop 的稳定版本,并解压缩到指定目录。 2. 配置 Hadoop 进入 Hadoop 的解压目录,找到 conf 目录下的 hadoop-env.sh 文件,编辑此文件,将 JAVA_HOME 设置为你的 Java 安装目录。 接着,编辑 core-site.xml 文件,添加以下配置: ``` <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> ``` 其中,fs.defaultFS 指定 Hadoop 的默认文件系统,此处设置为 HDFS 的服务地址为 localhost:9000。 接着,编辑 hdfs-site.xml 文件,添加以下配置: ``` <configuration> <property> <name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>/path/to/hadoop-data/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>/path/to/hadoop-data/datanode</value> </property> </configuration> ``` 其中,dfs.replication 指定了数据块的副本数量,此处设置为 2;dfs.namenode.name.dir 指定了 NameNode 存储数据的目录;dfs.datanode.data.dir 指定了 DataNode 存储数据的目录。 3. 配置 SSH Hadoop分布式环境下需要使用 SSH 远程连接节点,因此需要配置 SSH。 首先,检查本机是否已经安装了 SSH,如果没有安装,则需要安装 SSH。 接着,生成 SSH 公钥和私钥: ``` ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa ``` 这个命令会在 ~/.ssh 目录下生成 id_rsa 和 id_rsa.pub 两个文件,其中 id_rsa 为私钥,id_rsa.pub 为公钥。 将公钥拷贝到所有节点上,并将其添加到 authorized_keys 文件中: ``` ssh-copy-id user@node1 ssh-copy-id user@node2 ... ``` 4. 启动 Hadoop 启动 Hadoop 集群前,需要先格式化 NameNode,该操作会清空 NameNode 存储的所有数据: ``` bin/hdfs namenode -format ``` 接着,启动 Hadoop: ``` sbin/start-all.sh ``` 此时,Hadoop 集群就启动成功了。你可以通过以下命令查看 Hadoop 运行状态: ``` jps ``` 其中,NameNode 和 DataNode 分别代表 NameNode 和 DataNode 的进程。 5. 测试 Hadoop 最后,可以通过以下命令测试 Hadoop: ``` bin/hadoop fs -mkdir /test bin/hadoop fs -put /path/to/local/file /test/file bin/hadoop fs -cat /test/file ``` 其中,第一条命令是在 HDFS 中创建一个 test 目录,第二条命令是将本地文件上传到 HDFS 中,第三条命令是查看 HDFS 中的文件内容。 至此,Hadoop 完全分布式搭建流程就结束了。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值