hadoop安装详细步骤win7_Win7 64位 Hadoop单机模式安装

安装JDK,设置好环境变量:

下载 hadoop-2.6.5

http://mirrors.tuna.tsinghua.edu.cn/apache/hadoop/common->下载hadoop-2.6.5.tar.gz

解压即可使用

放入E:\0_jly\hadoop-2.6.5

下载window util for hadoop (几个 dll 文件 放入上述文件)

添加环境变量 HADOOP_HOME

并添加到Path路径:%HADOOP_HOME%\bin

创建namenode及datanode目录,用来保存数据,

例如

E:\0_jly\hadoop-2.6.5\namenode

E:\0_jly\hadoop-2.6.5\datanode

hadoop 相关配置文件设置,涉及到4个主要的配置文件:

core-site.xml

fs.defaultFS

hdfs://localhost:9000

hdfs-site.xml

dfs.replication

1

dfs.namenode.name.dir

/E:/0_jly/hadoop-2.6.5/namenode

dfs.datanode.data.dir

/E:/0_jly/hadoop-2.6.5/datanode

mapped-site.xml

mapreduce.framework.name

yarn

yarn-site.xml

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.nodemanager.aux-services.mapreduce.shuffle.class

org.apache.hadoop.mapred.ShuffleHandler

yarn.scheduler.minimum-allocation-mb

1024

yarn.nodemanager.resource.memory-mb

4096

yarn.nodemanager.resource.cpu-vcores

2

格式化namenode

hadoop namenode -format

启动或停止hadoop

start-all.cmd

第二次启动报错:使用jps发现

DataNode进程没有启动

报错的信息为,namenode clusterID 与 datanode clusterID 不一致!

将E:\0_jly\hadoop-2.6.5\data\namenode\current\VERSION内的clusterID

datanode clusterID改为与namenode clusterID 一致即可

stop-all.cmd

查看mapreduce job:

localhost:8088

查看hdfs 文件系统:

localhost:50070

测试hadoop自带的wordcount

hdfs dfs -mkdir /input

/input 不带  /  放的地方就不是根目录

会放到 /user/Administrater/

hdfs dfs -put /E:/BaiduNetdiskDownload/1.txt /input

如下图可以看到你上传的文件

f383a7131448f221ad518ac699ead143.png

查看你启动的进程:

jps

d3245e58f401a618dc9bde85fdffc704.png

hadoop jar /E:\0_jly\hadoop-2.6.5\share\hadoop\mapreduce\hadoop-mapreduce-examples-2.6.5.jar wordcount /input /output

运行结果可以下载

9aab8caca6d8c4c5024a661e3a098839.png

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值