进入hadoop_企业十大应用-Hadoop-部署

本文详细介绍了如何在Linux环境下安装配置Hadoop 2.2.0,包括安装Java JDK,部署Hadoop,修改配置文件,启动Hadoop服务,并通过执行wordcount程序验证集群正确运行。同时提供了HDFS和MapReduce管理界面的访问地址。
摘要由CSDN通过智能技术生成
999e650d82d5ae51e2e86d331f4cec79.png

本文hadoop的版本为hadoop-2.2.0

一、安装java jdk

1、下载java jdk1.7版本,放在/home/software目录下,

2、解压:

tar -zxvf java-jdk*****.jarvim /etc/profile

#在文件最后添加

export JAVA_HOME=/home/software/jdk1.7export PATH=$PATH:$JAVA_HOME/bin

#刷新配置

source /etc/profile

4、检测是否成功安装:java -version

二、安装hadoop

1、在linux根路径创建目录cloud:sudo mkdir cloud

2、解压hadoop到cloud目录中:tar -zxvf hadoop-2.2.0.tar.gz -C /cloud/

3、进入目录:/cloud/hadoop/etc/hadoop

三、修改配置文件

1、修改hadoop-env.sh,配置java jdk路径,大概在27行配置,如下:

export JAVA_HOME=/home/software/jdk1.7

2、修改core-site.xml,配置内容如下

fs.defaultFShdfs://locahost:9000hadoop.tmp.dir/cloud/hadoop/tmp

3、修改hdfs-site.xml,修改配置如下

dfs.replication1

4、修改mapred-site.xml 由于在配置文件目录下没有,需要修改名称:mv mapred-site.xml.template mapred-site.xml

mapreduce.framework.nameyarn

5、修改yarn-site.xml,修改内容如下

yarn.nodemanager.aux-servicesmapreduce_shuffleyarn.resourcemanager.hostnamelocalhost

6、讲hadoop添加到环境变量,然后更新一下环境变量:source /etc/profile

export JAVA_HOME=//home/software/jdk1.7export HADOOP_HOME=/cloud/hadoopexport PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

四、启动hadoop

1、格式化hadoop,进入目录:/cloud/hadoop/etc/hadoo,执行下列之一命令即可

hadoop namenode -format (过时)hdfs namenode -format

2、启动hdfs和yarn

先启动HDFSsbin/start-dfs.sh再启动YARNsbin/start-yarn.sh

3、验证是否成功,使用命令:jps,输出如下即表示配置成功。

12272 Jps

4135 JobTracker

9500 SecondaryNameNode

9943 NodeManager

9664 ResourceManager

8898 NameNode

9174 DataNode

4、可以在浏览器中查看hdfs和mr的状态.hdfs管理界面:http://localhost:50070 MR的管理界面:http://localhost:8088

五、hdfs基本操作和wordcount程序

1、进入hadoop安装目录中的share:/cloud/hadoop/share/hadoop/mapreduce

2、ls列出当前路径下的文件,内容如下,其中带有example字样的为样例程序

hadoop-mapreduce-client-app-2.2.0.jar

hadoop-mapreduce-client-common-2.2.0.jar

hadoop-mapreduce-client-core-2.2.0.jar

hadoop-mapreduce-client-hs-2.2.0.jar

hadoop-mapreduce-client-hs-plugins-2.2.0.jar

hadoop-mapreduce-client-jobclient-2.2.0.jar

hadoop-mapreduce-client-jobclient-2.2.0-tests.jar

hadoop-mapreduce-client-shuffle-2.2.0.jar

hadoop-mapreduce-examples-2.2.0.jar

lib

lib-examples

sources

3、新建words文件,内容输入如下,然后使用命令上传到hdfs目录下:hadoop fs -put words hdfs://localhost:9000/words

hello tom

hello kitty

hello world

hello tom

4、在命令行中敲入:

hadoop jar hadoop-mapreduce-examples-2.2.0.jar wordcounthdfs://localhost:9000/wordshdfs://localhost:9000/out

5、打开页面:http://localhost:50070/dfshealth.jsp

1c0fbaa747a70b10da7962e2a20029e3.png

6、点击上图中的Browse the filesystem,跳转到文件系统界面,如下所示:

a16ff4ebe3b6ffb2cab672b65f0c963b.png

7、继续点击上图的out/part-r-00000,wordcount程序最终运行的结果如图所示:

4d54f111ad6371d8ba54df3c92cbf48f.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值