hadoop伪分布式的搭建

目录

一,安装前的准备工作

二,Hadoop安装与配置

三,启动与停止Hadoop

四,访问Hadoop


所需软件列表

Vmware Workstation

Linux OS(Centos 7)

JDK(1.8+)

Hadoop(2.7.7+)

Xftp

Xshell

一,安装前的准备工作

1.设置Linux系统静态IP地址

因为虚拟机网络采用bridge桥接方式,客户机和宿主机在同一个局域网中,因此按如下方式设置客户操作系统的IP地址 客户操作系统的IP地址和主操作系统在同一网段 客户操作系统的网关和主操作系统一致 客户操作系统的DNS和主操作系统一致。

命令:vi /etc/sysconfig/network-scripts/ifcfg-ens33

把BOOTPROTO=dhcp修改为static 

ONBOOT=no修改为yes

其他的根据自己的电脑来更改,因为每个人改的ip什么的都不一样,我这里只是大概的说.

设置完毕执行命令:   systemctl restart network.service重启Linux系统网络。

验证:ip addr命令查看设置是否成功

配置完后可以ping一下是否网络连通

命令:ping www.baidu.com

2.关闭防火墙

查看Linux系统防火墙状态命令:firewall-cmd --state

关闭防火墙命令:systemctl stop firewalld.service

关闭防火墙的自动运行命令:systemctl disable firewalld.service

3.修改主机名 

修改虚拟机的主机名为master    可以改自己想改的,但是要和后面配置文件的名称相符合,不然可能导致运行不了。

命令:vi /etc/hostname

修改完主机名需要重启虚拟机

命令:reboot

4.配置主机名与IP映射

修改完主机名后,需要将静态IP地址与主机名进行映射,即修改hosts文件。

 IP地址与主机名的映射输入格式为:IP地址 主机名    其中IP地址即步骤1中设置的静态IP地址

(不要把ip和主机名搞反,不然会导致后面运行不了)

5.设置SSH免密登录

可以查看虚拟机是否安装了ssh

命令:rpm -qa|grep ssh

如下面图所示就说明ssh已安装好,否则就要使用该命令:yum-y install openssh

执行以下命令产生密钥,位于~/.ssh目录    

命令:ssh-keygen –t rsa

 将公钥(id_rsa.pub)拷贝到当前目录的 /authorized_keys列表

 命令:cat id_rsa.pub >> authorized_keys 

或者:ssh-copy-id -i id_rsa.pub hadoop

 修改authorized_keys的权限为0600  

命令:chmod 600 authorized_keys

ssh免密登录设置完毕,需要验证是否真的可以免密登录虚拟机

命令:ssh master

6 .安装JDK(要jdk的后期可以找我要)

通过xftp工具将安装包上传到虚拟机master的某个目录下 (我这里是放在usr/loacl下)

 解压文件:tar -zxvf jdk-8u191-linux-x64.tar.gz

重命名解压后的文件夹:将解压后的文件夹重命名为jdk (我改主要是为了方便,你们也可以不改)

命令:sudo mv jdk1.9.0_191/  jdk

配置jdk环境变量

命令:vi /etc/profile,编辑此文件增加2行内容

 /usr/local/jdk 这里是放你们自己解压jdk的目录

生效配置信息:source /etc/profile

二,Hadoop的安装与配置

1.上传安装包至Linux服务器(我这里跟jdk一样放在/usr/local下)

 2.解压安装包并重命名

命令:tar -zxvf hadoop-2.7.7.tar.gz

 3.配置环境变量并立即生效

命令:vi /etc/profile,编辑此文件增加2行内容

export HADOOP_HOME=/usr/local/hadoop export PATH=.:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

生效配置文件   命令:source /etc/profile

4.修改Hadoop核心配置文件    

Hadoop的核心配置文件有多个:hadoop-env.sh、yarn-env.sh、core-site.xml、hdfs-site.xml、mapred-site.xml、yarn-site.xml

其路径为:/usr/local/hadoop/etc/hadoop

(1)修改vim hadoop-env.sh文件    

修改JAVA_HOME的配置信息,将原来的值修改为Java运行环境的安装路径。

export JAVA_HOME=/usr/local/jdk…(jdk实际安装路径)

 (2) 修改vim yarn-env.sh 文件  

此文件是YARN框架运行环境的配置,同样需要修改JAVA_HOME的配置信息。    

export JAVA_HOME=/usr/local/jdk…(jdk实际安装路径)

 

(3)修改 vim core-site.xml文件

配置HDFS的地址和端口号以及临时数据的目录。

<configuration>

<property>      

                <!-- HDFS资源路径 -->        

               <name>fs.defaultFS</name>      

              <value>hdfs://master:8020</value>

</property>

<!-- Hadoop临时文件存放目录 -->  

       <property>        

            <name>hadoop.tmp.dir</name>        

           <value>/usr/local/hadoop/tmp</value>  

  </property>

</configuration>

(4)修改hdfs-site.xml 文件

修改HDFS保存数据的副本数量以及存储NameNode和DataNode元数据的目。

 <configuration>

<!-- 副本数 -->  

     <property>      

           <name>dfs.replication</name>      

          <value>1</value>    

      </property>

<!-- namenode元数据存储路径 -->

<property>        

               <name>dfs.namenode.name.dir</name>                                                 <value>file:/usr/local/hadoop/tmp/dfs/name</value>  

</property>

<!-- 数据存储路径 -->  

        <property>        

             <name>dfs.datanode.data.dir</name>        

  <value>file:/usr/local/hadoop/tmp/dfs/data</value>    

      </property>

</configuration>

(5)修改修改mapred-site.xml

配置使用yarn框架   因Hadoop的此目录下无该文件,需先创建此文件                    

执行命令:cp mapred-site.xml.template  mapred-site.xml                

然后配置如下内容:

<configuration>    

       <property>    

               <name>mapreduce.framework.name</name>      

                <value>yarn</value>    

           </property>

</configuration>

(6)修改yarn-site.xml,配置yarn属性  

配置内容如下:

 <configuration>

      <!—配置resourceManager在哪台机器 -->  

      <property>        

                <name>yarn.resourcemanager.hostname</name>  

                <value>master</value>  

      </property>

<!-- 在nodemanager中运行mapreduce服务 -->   

 <property>       

             <name>yarn.nodemanager.aux-services</name>      

              <value>mapreduce_shuffle</value>   

 </property>

<!--配置web ui访问端口(默认端口为8088)-->

<property>

          <name>yarn.resourcemanager.webapp.address</name>

           <value>master:18088</value>

 </property>

</configuration>

三,启动与停止Hadoop

Hadoop伪分布式集群的启动,可以依次单独启动HDFS和YARN,也可以一次启动所有的节点,一般建议依次单独启动HDFS和YARN。

(1)NameNode格式化  

在Hadoop的解压目录:/usr/local/hadoop/bin下执行  

hdfs namenode -format

(2)启动/停止HDFS

在Hadoop的解压目录:/usr/local/hodoop/sbin下存放

启动、停止的所有脚本文件  

start-dfs.sh   stop-dfs.sh

(3)启动/停止YARN

start-yarn.sh  stop-yarn.sh

(4)一次性同时启动HDFS和YARN(此种方式不建议使用)

start-all.sh  stop-all.sh

四,访问Hadoop

验证Hadoop是否配置并启动成功

查看启动进程方式

执行命令jps查看启动的进程中是否启动了以下5个进程,如下图说明就成功了。(这里是一键启动)(主节点: NameNode,SecondaryNamenode ,ResourceManager 从节点:  DataNode、NodeManager )

 浏览器访问方式  

http://192.168.199.133:50070/  

http://192.168.199.133:18088/

验证Hadoop是否配置并启动成功

 这样子就结束了,第一次弄,有不好的请大家在评论区说出来,有问题也可以在评论区问。有要安装包的也可以问我要。谢谢大家,观看了!

  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

徙格~

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值