Centos 6.9搭建Hadoop分布式

Hadoop实现了一个分布式文件系统(Hadoop Distributed File System),简称HDFS。HDFS有高容错性的特点,并且设计用来部署在低廉的(low-cost)硬件上;而且它提供高吞吐量(high throughput)来访问应用程序的数据,适合那些有着超大数据集(large data set)的应用程序。HDFS放宽了(relax)POSIX的要求,可以以流的形式访问(streaming access)文件系统中的数据。下面我简单说说在centos6.9上搭建Hadoop分布式:

准备工作:三台虚拟机,网卡是net模式

主机IP:bigdatamaster.com      192.168.0.60

      bigdatawork01.com     192.168.0.61

      bigdatawork02.com     192.168.0.62

1.    修改主机名

vim /etc/sysconfig/network

三台虚拟机都要修改


2.    关闭selinux

vim /etc/sysconfig/selinux

修改enforcing为disabled


3.    关闭防火墙

service iptables stop

4.    永久关闭防火墙

chkconfig iptables off

5.    检测防火墙状态

service iptables status


6.    修改本地host文件

vim /etc/hosts


7.    建立文件

mkdir -p /opt/modules/hadoop-2.5.0/tmp/archy-hadoop

8.    配置java环境

Java环境配置传送阵

9.  配置ssh

SSH配置传送阵

10.    配置hadoopjava环境

a)     hadoop-env.sh(第25行)、yarn-env.sh(第20行)、mapred-env.sh(第16行)这三个文件只配置Java环境;

b)     配置core-site.xml文件


<property>
        <name>fs.defaultFS</name>
        <value>hdfs://bigdatamaster.com:8020</value>
</property>

 <property>
         <name>hadoop.tmp.dir</name>
         <value>/opt/modules/hadoop-2.5.0/tmp/archy-hadoop</value>
</property>
c)     配置yarn-site.sh文件


<property>
	<name>mapreduce.framework.name</name>
	<value>yarn</value>
</property>
<property>
	<name>yarn.nodemanager.aux-services</name>
	<value>mapreduce_shuffle</value>
</property>
<property>
	<name>yarn.resourcemanager.hostname</name>
	<value>bigdatamaster.com</value>
</property>
<property>
	<name>yarn.log-aggregation-enable</name>
	<value>true</value>
</property>
<property>
	<name>yarn.log-aggregation.retain-seconds</name>
	<value>86400</value>
</property>
<property>
	<name>mapreduce.jobhistory.address</name>
	<value>bigdatamaster.com:10020</value>
</property>
<property>
	<name>mapreduce.jobhistory.webapp.address</name>
	<value>bigdatamaster.com:19888</value>
</property>

d)     配置hdfs-site.xml文件


<property>
        <name>dfs.replication</name>
        <value>3</value>
</property>
<property>
         <name>dfs.namenode.http-address</name>
         <value>bigdatamaster.com:50070</value>
</property>
<property>
        <name>dfs.namenode.secondary.http-address</name>
        <value>bigdatawork01.com:50090</value>
</property>
<property>
	<name>dfs.permissions</name>
	<value>false</value>
</property>

11.    配置slaves文件

vim slaves


12.    把hadoop2.5.0文件夹复制到从服务器上

scp -r /opt/modules/hadoop-2.5.0/ archy@bigdatawork01.com:/opt/modules/


13.    格式化:

cd /opt/modules/hadoop-2.5.0/bin
./hdfs namenode –format

14.    启动hadoop

./start-all.sh

15.成功:



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值