上一节主要介绍jdk和ssh的安装和配置,本节主要介绍Hadoop环境变量的配置
1Hadoop安装
1.1下载Hadoop安装包,本文以0.2版本为例
1.2把安装包放到home/lqy/Downloads目录下
1.3使用tar xvf hadoop-0.20.2.tar.gz解压安装包
2Hadoop文件配置
2.1配置hadoop-env.sh文件,
1)文件路径在conf文件下
2)打开文件修改配置如下所示
2.2配置core-site.xml
1)复制 src/core 下的 core -default.xml 到 conf 下并改名为 core-site.xml
2)配置修改为如下
2.3配置hdfs-site-xml
1)复制src/hdfs下的hdfs下的hdfs-default.xml到conf 下并改名为hdfs-site.xml
2)文件修改为如下配置
2.4配置mapred-site.xml
1)复制src/mapred/下的mapred-default.xml到conf下并改名为mapred-site.xml替换原来的文件
2)文件配置如下
3启动Hadoop
3.1登录本机
3.2格式化文件系统
3.3启动所有Hadoop进程
3.4验证是否所有进程都启动
1)datanode没有成功启动
2)排查原因
1)通过log记录我们查看出错原因,namenode和datanode值不同
2)修改其中一个使两者值相同路径hdfs/data目录下
3)从新启动进程,正确启动
4登录mapreduce管理界面
4.1)输入http://localhost:50030出现如下界面
4.2登录HDFS管理界面