准备一台Linux服务器,用VMware虚拟机即可。
1、虚拟机网络模式设置为NAT
2、克隆虚拟机(可省略)
假设,已经存在一台“hadoop101”的机器,现需新建一个“hadoop102”的机器,并在这台上搭建hadoop运行环境,所以需要去克隆“hadoop101”这台机器,如果是在当前机器(“hadoop101”)搭建,则该步可省略。
3、配置静态ip
配置这台服务器的IP地址,以配置ip地址为192.168.1.102为例,
(1)在终端命令窗口中输入
[root@hadoop102 /]# vim /etc/udev/rules.d/70-persistent-net.rules
删除eth0该行,同时,将下一行的eth1修改为eth0,同时复制这一行的物理ip地址,即ATTR{address}==""中的字符串,例如:00:0C:29:AD:6E:83;
(2)修改ip地址
[root@hadoop102 /]# vim /etc/sysconfig/network-scripts/ifcfg-eth0
需要修改的内容有5项:
BOOTPROTO=static
HWADDR=00:0C:29:AD:6E:83
IPADDR=192.168.1.101
GATEWAY=192.168.1.2
DNS1=192.168.1.2
保存退出;
4、修改主机名
(1)修改hostname
[root@hadoop106 桌面]# vi /etc/sysconfig/network
修改配置文件,如下:
NETWORKING=yes
HOSTNAME=hadoop102
(2)修改hosts
[root@hadoop102 桌面]# vi /etc/hosts
这里增加对应的ip和主机名,如:192.168.1.102 hadoop102,★注意:其他几台机器也需同步增加
127.0.0.1 localhost localhost.localdomain localhost4 localhost4.localdomain4
::1 localhost localhost.localdomain localhost6 localhost6.localdomain6
192.168.1.100 hadoop100
192.168.1.101 hadoop101
192.168.1.102 hadoop102
192.168.1.103 hadoop103
192.168.1.104 hadoop104
5、重启
[root@hadoop102 桌面]# sync reboot
6、关闭防火墙
(1)查看防火墙状态
[root@hadoop102 桌面]# chkconfig iptables --list
(2)如果防火墙未关闭,需要关闭
(2-1)临时关闭防火墙
[root@hadoop102 桌面]# service iptables stop
(2-2)关闭防火墙开机启动
[root@hadoop102 桌面]# chkconfig iptables off
7、在opt目录下创建文件
[root@hadoop102 桌面]# cd /opt
[root@hadoop102 opt]# mkdir module
[root@hadoop102 opt]# mkdir software
8、安装jdk
(1)卸载现有jdk
(1-1)查询是否安装java软件
[root@hadoop102 桌面]# rpm –qa|grep java
(1-2)如果安装的版本低于1.7,卸载该jdk
[root@hadoop102 桌面]# rpm –e 软件包
(2)将jdk、Hadoop-2.7.2.tar.gz导入到opt目录下面的software文件夹下面,可用filezilla工具
(3)解压jdk到/opt/module目录下
[root@hadoop102 software]# tar -zxf jdk-7u79-linux-x64.gz -C /opt/module/
(4)配置jdk环境变量
(4-1)获取jdk路径:
[root@hadoop102 jdk1.7.0_79]# pwd
(4-2)打开/etc/profile文件
[root@hadoop102 jdk1.7.0_79]# vi /etc/profile
(4-3)在profie文件末尾添加jdk路径,并保存退出(:wq)
##JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.7.0_79
export PATH=$PATH:$JAVA_HOME/bin
(4-4)让修改后的文件生效
[root@hadoop102 jdk1.7.0_79]# source /etc/profile
(5)测试jdk是否安装成功,如果没有,重启再试
[root@hadoop101 jdk1.7.0_79]# java -version
9、安装hadoop
(1)进入到Hadoop安装包路径下
[root@hadoop102 ~]# cd /opt/software/
(2)解压安装文件到/opt/module下面
[root@hadoop102 software]# tar -zxf hadoop-2.7.2.tar.gz -C /opt/module/
(3)配置hadoop中的hadoop-env.sh
(3-1)获取jdk的安装路径
[root@hadoop102 jdk1.7.0_79]# echo $JAVA_HOME
(3-2)修改hadoop-env.sh文件中JAVA_HOME 路径
export JAVA_HOME=/opt/module/jdk1.7.0_79
(3-3)将hadoop添加到环境变量
同配置jdk的环境变量类似,在/etc/profile的末尾加上,再让文件生效
##HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-2.7.2
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
10、本地文件运行Hadoop
(1)在本地Linux服务器上新建一个input文件夹
[root@hadoop102 hadoop-2.7.2]# mkdir input
(2)在input中导入数据源
(3)执行mapreduce程序
(3-1)官方grep案例
[root@hadoop102 hadoop-2.7.2]# bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar grep input output 'dfs[a-z.]+'
(3-2)官方wordcount案例
[root@hadoop102 hadoop-2.7.2]# hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.7.2.jar wordcount wcinput wcoutput