linux配置hadoop伪分布,Ubuntu 14.04下安装Hadoop2.4.0 (伪分布模式)

一、配置core-site.xml

/usr/local/hadoop/etc/hadoop/core-site.xml 包含了hadoop启动时的配置信息。

编辑器中打开此文件

sudo gedit /usr/local/hadoop/etc/hadoop/core-site.xml

16edddaab1c8beb8532cc73e35668e81.png

在该文件的之间增加如下内容:

fs.default.name

hdfs://localhost:9000

保存、关闭编辑窗口。

最终修改后的文件内容如下:

ef8ea43523033a7a415872dabd9023bb.png

二、配置yarn-site.xml

/usr/local/hadoop/etc/hadoop/yarn-site.xml包含了MapReduce启动时的配置信息。

编辑器中打开此文件

sudo gedit yarn-site.xml

cbe682a0b341378bb80392b9da2a1b39.png

在该文件的之间增加如下内容:

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.nodemanager.aux-services.mapreduce.shuffle.class

org.apache.hadoop.mapred.ShuffleHandler

保存、关闭编辑窗口

最终修改后的文件内容如下

2fa97ad0d63a4c572a40b6fa28e2ed43.png

三、创建和配置mapred-site.xml

默认情况下,/usr/local/hadoop/etc/hadoop/文件夹下有mapred.xml.template文件,我们要复制该文件,并命名为mapred.xml,该文件用于指定MapReduce使用的框架。

复制并重命名

cp mapred-site.xml.template mapred-site.xml

编辑器打开此新建文件

sudo gedit mapred-site.xml

e7d0bf7d991f3bb0e087d40e2e9c3f35.png

在该文件的之间增加如下内容:

mapreduce.framework.name

yarn

保存、关闭编辑窗口

最终修改后的文件内容如下

ebc476e5521bd860e64d0d13bb34d89b.png

四、配置hdfs-site.xml

/usr/local/hadoop/etc/hadoop/hdfs-site.xml用来配置集群中每台主机都可用,指定主机上作为namenode和datanode的目录。

创建文件夹,如下图所示

2aefac916470906dfe8fda3db3aad4a6.png

你也可以在别的路径下创建上图的文件夹,名称也可以与上图不同,但是需要和hdfs-site.xml中的配置一致。

编辑器打开hdfs-site.xml

在该文件的之间增加如下内容:

dfs.replication

1

dfs.namenode.name.dir

file:/usr/local/hadoop/hdfs/name

dfs.datanode.data.dir

file:/usr/local/hadoop/hdfs/data

保存、关闭编辑窗口

最终修改后的文件内容如下:

acff712aad8fbed62b6c17cd29b12ac4.png

五、格式化hdfs

hdfs namenode -format

只需要执行一次即可,如果在hadoop已经使用后再次执行,会清除掉hdfs上的所有数据。

六、启动Hadoop

经过上文所描述配置和操作后,下面就可以启动这个单节点的集群

执行启动命令:

sbin/start-dfs.sh

执行该命令时,如果有yes /no提示,输入yes,回车即可。

接下来,执行:

sbin/start-yarn.sh

执行完这两个命令后,Hadoop会启动并运行

执行 jps命令,会看到Hadoop相关的进程,如下图:

c1f9483c8d3a9eddf48ca0fc4df606a3.png

c13419b6f1bd22c49f624b13d92961e1.png

浏览器打开http://localhost:8088,会看到hadoop进程管理页面

719309ff733f9ac9424ea8966b00e978.png

七、WordCount验证

dfs上创建input目录

bin/hadoop fs -mkdir -p input

195cc3cb185b48c63a8fe21bb29fef2c.png

把hadoop目录下的README.txt拷贝到dfs新建的input里

hadoop fs -copyFromLocal README.txt input

8e221a44fb55135ebc8230bbecd493f9.png

运行WordCount

hadoop jar share/hadoop/mapreduce/sources/hadoop-mapreduce-examples-2.4.0-sources.jar org.apache.hadoop.examples.WordCount input output

a4156479f6bac64ce38259d2fd5139ed.png

可以看到执行过程

dc8bc06b1e24245fb92b3be91500b2b1.png

运行完毕后,查看单词统计结果

hadoop fs -cat output/*

9487ef4178c3a98103e5a6ed5badb637.png

0b1331709591d260c1c78e86d0c51c18.png

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值