hadoop2.6.3学习第二节:安装和配置

本节主要是参考了别人的构建方案,然后自己配置的时候优化了一下。

安装过程主要有以下几个步骤:

一、建立hadoop运行帐号

分别运行下面命令

sudo groupadd hadoop 创建用户组
sudo useradd hadoop -g hadoop 创建用户

cd /home/  切换用户目录

sudo mkdir hadoop/  创建hadoop目录

sudo chown -R hadoop:hadoop hadoop/ 设置目录的所有者为hadoop用户

执行完上面,运行帐号的建立就完成了

二、安装虚拟机jdk

这里安装的版本是:jdk-8u72-linux-x64.gz

上传文件方式两种:FTP和rz/sz上传和下载工具

sudo apt-get install lrzsz 开启rz/sz上传下载功能,用rz选择文件上传至linux

sudo tar -zxvf jdk-8u72-linux-x64.gz  -C /opt/  命令将其解压到/opt目录下

sudo mv jdk1.8.0_72  java文件夹重命名为java

配置环境变量了,使用vi /etc/profile命令编辑添加如下内容:

export JAVA_HOME=/opt/java/

export PATH=$JAVA_HOME/bin:$PATH

配置好之后要用命令source /etc/profile使配置文件生效

使用命令sudo chown -R hadoop:hadoop java/将所有者设置为hadoop 

这样jdk就安装完毕了,检查jdk环境变量是否配置正确,输入java -version,如下图,则安装配置成功


二、hadoop的安装

下载hadoop-2.6.3.tar.gz,点击下载

先解压到hadoop目录下,sudo tar -zxvf hadoop-2.6.3.tar.gz  -C /home/hadoop/

然后设置所有者,sudo chown -R hadoop:hadoop hadoop-2.6.3/

vi /etc/profile配置环境变量

新增:export HADOOP_HOME=/home/hadoop/hadoop-2.6.3

修改:export PATH=$JAVA_HOME/bin:$PATH:$HADOOP_HOME/bin

使用source /etc/profile使配置生效。安装方法和jdk类似。

三、配置hadoop-2.6.3

cd etc/hadoop/

配置 hadoop-env.sh文件-->修改JAVA_HOME

export JAVA_HOME=/home/java/

配置 yarn-env.sh 文件-->>修改JAVA_HOME

 export JAVA_HOME=/home/java/

配置slaves文件-->>增加slave节点 

slave1

slave2

配置 core-site.xml文件-->>增加hadoop核心配置(hdfs文件端口是9000、file:/home/spark/opt/hadoop-2.6.0/tmp、)

<configuration>
 <property>
  <name>fs.defaultFS</name>
  <value>hdfs://master:9000</value>
 </property>
 <property>
  <name>io.file.buffer.size</name>
  <value>131072</value>
 </property>
 <property>
<span style="white-space:pre">	</span><!--指定hadoop的工作目录 -->
  <name>hadoop.tmp.dir</name>
  <value>file:/home/hadoop/hadoop-2.6.3/tmp</value>
  <description>Abasefor other temporary directories.</description>
 </property>
 <property>
  <name>hadoop.proxyuser.spark.hosts</name>
  <value>*</value>
 </property>
<property>
  <name>hadoop.proxyuser.spark.groups</name>
  <value>*</value>
 </property>
</configuration>

配置  hdfs-site.xml 文件-->>增加hdfs配置信息(namenode、datanode端口和目录位置)

<configuration>
<pre name="code" class="html" style="font-size: 13.3333px;"><!--指定<span style="font-size: 13.3333px; font-family: Arial, Helvetica, sans-serif;">secondnamenode,建议和master不在一个机器保证数据安全</span> -->
<property> <name>dfs.namenode.secondary.http-address</name> <value>slave1:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/hadoop/hadoop-2.6.3/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/hadoop/hadoop-2.6.3/dfs/data</value> </property> <property>
<pre name="code" class="html" style="font-size: 13.3333px;"><!--设置datanode的数量,除了master以外-->
<name>dfs.replication</name> <value>2</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property></configuration>


 

配置  mapred-site.xml 文件-->>增加mapreduce配置(使用yarn框架、jobhistory使用地址以及web地址)

<configuration>
  <property>
   <name>mapreduce.framework.name</name>
   <value>yarn</value>
 </property>
 <property>
  <name>mapreduce.jobhistory.address</name>
  <value>master:10020</value>
 </property>
 <property>
  <name>mapreduce.jobhistory.webapp.address</name>
  <value>master:19888</value>
 </property>
</configuration>
配置   yarn-site.xml  文件-->>增加yarn功能

<configuration>
  <property>
   <name>yarn.nodemanager.aux-services</name>
   <value>mapreduce_shuffle</value>
  </property>
  <property>
   <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
   <value>org.apache.hadoop.mapred.ShuffleHandler</value>
  </property>
  <property>
   <name>yarn.resourcemanager.address</name>
   <value>master:8032</value>
  </property>
  <property>
   <name>yarn.resourcemanager.scheduler.address</name>
   <value>master:8030</value>
  </property>
  <property>
   <name>yarn.resourcemanager.resource-tracker.address</name>
   <value>master:8035</value>
  </property>
  <property>
   <name>yarn.resourcemanager.admin.address</name>
   <value>master:8033</value>
  </property>
  <property>
   <name>yarn.resourcemanager.webapp.address</name>
   <value>master:8088</value>
  </property>
</configuration>

配置方面到这里先结束。

三、克隆虚拟机

关闭"VMware Workstation上面的master虚拟机。

然后右键这个虚拟机-->管理-->克隆


一直下一步,到下图位置停下来,选择“创建完整克隆


这里名称选择slave1,点击完成后,重新再重复一遍复制一个slave2


克隆好之后,分别进入机器,重命名机器名。因为是克隆的,默认的名字都会和原来的名字一样。

 vim /etc/hostname 分别命名机器为slave1,slave2

使用ifconfig 查看3太机器的ip地址,然后分别在三台机器下配置hosts文件


hosts文件路径为;/etc/hosts,我的hosts文件配置如下,大家可以参考自己的IP地址以及相应的主机名完成配置

 

至此,3台服务器都准备好了。

四、格式化namenode

格式化namenode:进入master主机的hadoop-2.6.3目录下:./bin/hdfs namenode -format,出现如下界面基本完成


五、启动hadoop

这一步也在主结点master上进行操作:

 

 

六、   用jps检验各后台进程是否成功启动

在主结点master上查看namenode,jobtracker,secondarynamenode进程是否启动。

如果出现以上进程则表示正确。

不出现则:ufw disable 关闭防火墙

 如果jps指令输入后  The program 'jps' can be found in the following packages:

            * openjdk-6-jdk
            * openjdk-7-jdk
            Ask your administrator to install one of them
            则输入如下内容sudo apt-get install openjdk-7-jdk(ps:我的是java7)

七、   通过网站查看集群情况

    在浏览器中输入:http://192.168.23.128:8088/,网址为master结点所对应的IP:

 


 

    在浏览器中输入:http://192.168.1.100:50070,网址为master结点所对应的IP:


至此,hadoop2.6.3的完全分布式集群安装已经全部完成,

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

夏V风

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值