hadoop集群搭建

第一步:安装JDK8

第二步:修改服务器名称,我搭建的是三个结点:一个主节点master两个从节点   内存2GB 磁盘20GB

master

192.168.116.51

slave1

192.168.116.52

slave2

192.168.116.53

#vim /etc/sysconfig/network

一主:

两从:

第三步:设置网络IP与服务器名映射

查询IP

#ifconfig -a

映射地址,三台服务器都要设置

#vim /etc/hosts

如果虚拟机没有关闭防火墙,需关闭防火墙,ping域名能成功

第四步:免密登录(在master节点启动hadoop集群时可以同时启动slave1、slave2节点)

#ssh-keygen -t rsa

执行后一路回车

进入.ssh文件,有两个文件id_rsa(私钥)和id_rsa.pub(公钥),将公钥复制到authorized_keys并赋予authorized_keys600权限

#cd ~/.ssh/

#cat id_rsa.pub >> authorized_keys

#chmod 600 authorized_key

 把公钥同步到slave1和slave2节点上

  第四步 搭建Hadoop环境(master)

1、创建服务器用户及用户组(三台服务器均设置)

添加用户

#adduser hadoop

为用户设置密码

#passwd hadoop

创建hadoop用户组(前面hadoop是用户组名,后一个hadoop是用户名)

#usermod -a -G hadoop hadoop

赋予hadoop用户root权限

----经测试-这样修改不行---

#vim /etc/sudoers

强制保存(wq!)

---------------end---------

-----使用这种方式----------

#sudo visudo

--------end---------------

2、安装hadoop并配置环境变量(由于Hadoop集群的每一个节点上有相同配置,因此先在master上设置,后同步到其他节点上)

上传Hadoop压缩包(hadoop-2.7.7.tar.gz),我的解压路径是:/opt/hadoop/hadoop-2.7.7

配置环境变量(根据自己的解压路径设置):

#vim /etc/profile

export HADOOP_HOME=/opt/hadoop/hadoop-2.7.7

export PATH=$PATH:$HADOOP_HOME/bin:$HADOOP_HOME/sbin

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop

3、搭建集群环境准备

切换hadoop用户

#su hadoop

在master节点上创建以下文件夹

/opt/hadoop/hadoop-2.7.7/hdfs

/opt/hadoop/hadoop-2.7.7/hdfs/name

/opt/hadoop/hadoop-2.7.7/hdfs/data

/opt/hadoop/hadoop-2.7.7/hdfs/temp

4、配置hadoop相关配置文件(/opt/hadoop/hadoop-2.7.7/etc/hadoop/)

配置hadoop-env.sh

配置yarn-env.sh

配置slaves,删除localhost,配置从服务器主机

配置core-site.xml

<configuration>

<property>

  <name>hadoop.proxyuser.hduser.groups</name>

  <value>*</value>

</property>

<property>

  <name>hadoop.proxyuser.hduser.hosts</name>

  <value>*</value>

</property>

<property>

   <name>hadoop.tmp.dir</name>

   <value>file:/opt/hadoop/hadoop-2.7.7/hdfs/temp</value>

   <description>A base for other temporary directories.</description>

 </property>

 <property>

  <name>io.file.buffer.size</name>

   <value>131072</value>

 </property>

 <property>

   <name>fs.defaultFS</name>

   <value>hdfs://master:9000</value>

 </property>

</configuration>

配置hdfs-size.xml

<configuration>

<property>

 <name>dfs.replication</name>

   <value>3</value>

 </property>

 <property>

   <name>dfs.namenode.name.dir</name>

   <value>file:/opt/hadoop/hadoop-2.7.7/hdfs/name</value>

   <final>true</final>

</property>

 <property>

   <name>dfs.datanode.data.dir</name>

   <value>file:/opt/hadoop/hadoop-2.7.7/hdfs/data</value>

   <final>true</final>

 </property>

 <property>

  <name>dfs.namenode.secondary.http-address</name>

   <value>master:9001</value>

 </property>

 <property>

   <name>dfs.webhdfs.enabled</name>

   <value>true</value>

 </property>

</configuration>

配置mapred-site.xml(如果该文件后面有.template,要删掉后缀:mv mapred-site.xml.template mapred-site.xml)

<configuration>

<property>

   <name>mapreduce.framework.name</name>

   <value>yarn</value>

 </property>

<property>

   <name>mapreduce.jobhistory.address</name>

   <value>master:10020</value>

 </property>

<property>

   <name>mapreduce.jobhistory.webapp.address</name>

   <value>master:19888</value>

 </property>

</configuration>

配置yarn-size.xml

<configuration>

<!-- Site specific YARN configuration properties -->

<property>

 <name>yarn.resourcemanager.address</name>

   <value>master:8040</value>

 </property>

 <property>

   <name>yarn.resourcemanager.scheduler.address</name>

   <value>master:8030</value>

 </property>

 <property>

   <name>yarn.resourcemanager.webapp.address</name>

   <value>master:8088</value>

 </property>

 <property>

   <name>yarn.resourcemanager.resource-tracker.address</name>

   <value>master:8025</value>

 </property>

 <property>

   <name>yarn.resourcemanager.admin.address</name>

   <value>master:8141</value>

 </property>

 <property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

 </property>

 <property>

     <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>

     <value>org.apache.hadoop.mapred.ShuffleHandler</value>

 </property>

</configuration>

5、将已配置的Hadoop分发到slave1、slave2虚拟机

#scp -r hadoop-2.7.7 hadoop@slave1:/opt/hadoop

#scp -r hadoop-2.7.7 hadoop@slave2:/opt/hadoop

如果权限不足有两种解决方案:

1、目标文件/opt 赋权  chmod /opt 777

2、使用root用户

#scp -r hadoop-2.7.7 root@slave2:/opt/hadoop

注意:slave1、slave2虚拟机Hadoop环境变量不要忘记配置

6、运行hadoop,格式化Namenode

source /etc/profile

7、启动集群

#./sbin/start-all.sh

 测试运行Hadoop自带的例子

#hadoop jar /opt/hadoop/hadoop-2.7.7/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.7.jar  pi 10 10

出现如下提示,恭喜你安装成功

本机访问hadoop管理页面

http://master:8088/cluster

注意:修改本机hosts(C:\Windows\System32\drivers\etc\hosts)

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值