环境
3台CentOS7.0虚拟机:
Master:192.168.139.101
Slave1:192.168.139.102
Salve2:192.168.139.103
前提条件:三台机器都安装了JDK1.7以上版本、关闭了防火墙、实现了SSH免密登录(实现方式可以见我另两篇博客)
Hadoop安装包:jdk-8u144-linux-x64.tar.gz,可以去官网下载
Hadoop解压
先在Master节点上安装配置,然后将安装好的Hadoop包拷贝到另外两个Salve节点上。
1. 将Hadoop安装包上传到Master节点的某一目录下,本文使用的目录是/home/centos/hadoop/
2. 解压tar包。命令:tar -zxvf hadoop-2.6.5.tar.gz。解压成功后,Hadoop包算是安装完了,剩下的就是配置各个文件。
Hadoop配置
首先在目录/home/centos/hadoop/ 下新建四个用于Hadoop存放数据的文件夹tmp、hdfs、hdfs/name、hdfs/data。
配置/hadoop-2.6.5/etc/hadoop/目录下的core-site.xml文件。
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.139.101:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>file:/home/centos/hadoop/tmp</value>
</property>
<property>
<name>io.file.buffer.size</name>
<value>131702</value>
</