HDFS(一)windows环境搭建

1.资源准备
(1)jdk 版本:1.8
(2).hadoop
版本:2.10.0
下载:https://www.apache.org/dyn/closer.cgi/hadoop/common/hadoop-2.10.0/hadoop-2.10.0.tar.gz
(3).hadooponwindows-master
下载:https://codeload.github.com/sardetushar/hadooponwindows/zip/master

2.安装
(1)jdk:自行安装 ,并配置好环境变量
(2)hadoop
解压,加入系统环境变量:HADOOP_HOME值:为路径例如"D:\software\hadoop\hadoop-2.10.0"到bin文件夹上一级即可。path后加入“;%HADOOP_HOME%\bin;”
装完后打开cmd执行 hadoop version 可以看到如下信息
在这里插入图片描述
(2)hadooponwindows
解压后将bin目录 下的文件覆盖到hadoop/bin下面

3.配置
(1)core-site.xml

<configuration>

<property>
	<name>fs.defaultFS</name>
	<value>hdfs://127.0.0.1:9000</value>
</property>


<property>
    <name>hadoop.tmp.dir</name>
     <value>/D:/software/hadoop/hadoop-2.10.0/data</value> 
     <description>A base for other temporary directories设置默认的数据保存路径.</description>
</property>

</configuration>

(2)mapred-site.xml

<configuration>
<property>
       <name>mapreduce.framework.name</name>
       <value>yarn</value>
    </property>
    <property>
       <name>mapred.job.tracker</name>
       <value>hdfs://localhost:9001</value>
    </property>
</configuration>

(3)hdfs-site.xml

<configuration>
<!-- 这个参数设置为1,因为是单机版hadoop -->
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
    <property>
        <name>dfs.data.dir</name>
        <value>/D:/software/hadoop/hadoop-2.10.0/data</value>
    </property>

</configuration>

(4)yarn-site.xml

<property>
       <name>yarn.nodemanager.aux-services</name>
       <value>mapreduce_shuffle</value>
    </property>
    <property>
       <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name>
       <value>org.apache.hadoop.mapred.ShuffleHandler</value>
    </property>

</configuration>

3.运行
(1)cmd执行hadoop namenode -format
(2)在hadoop/sbin目录下依次执行
start-dfs.cmd
start-yarn.cmd
启动后可以打开 http://localhost:50070/dfshealth.html#tab-overview

在这里插入图片描述
5.HDFS命令
(1)创建一个文件夹 : hdfs dfs -mkdir /myTask
(2)创建多个文件夹 : hdfs dfs -mkdir -p /myTask1/input1
(3)上传文件: hdfs dfs -put /opt/wordcount.txt /myTask/input
(4)查看总目录下的文件和文件夹: hdfs dfs -ls /
(5)查看myTask下的文件和文件夹: hdfs dfs -ls /myTask
(6)查看myTask下的wordcount.txt的内容: hdfs dfs -cat /myTask/wordcount.txt
(7)删除总目录下的myTask2文件夹以及里面的文件和文件夹: hdfs dfs -rmr /myTask2
(8)删除myTask下的wordcount.txt :hdfs dfs -rmr /myTask/wordcount.txt
(9)下载hdfs中myTask/input/wordcount.txt到本地opt文件夹中 :hdfs dfs -get /myTask/input/wordcount.txt E:\opt

6.测试
(1)创建目录:cmd中执行:

hadoop fs -mkdir  hdfs://localhost:9000/user
hadoop fs -mkdir hdfs://localhost:9000/user/test

(2)上传文件

hadoop fs -put     E:\test.txt     hdfs://localhost:9000/user/test

(3)下载文件
下载文件到磁盘

hadoop fs -get   hdfs://localhost:9000/user/test/test.txt       F:\

下载文件到磁盘并重新命名

hadoop fs -get hdfs://localhost:9000/user/test/test.txt  F:\test0001.txt

在这里插入图片描述
(4)查看文件
查看文件

hadoop fs -ls hdfs://localhost:9000/user

在这里插入图片描述```

hadoop fs -ls hdfs://localhost:9000/user/test
![在这里插入图片描述](https://img-blog.csdnimg.cn/20200304171846830.png)
  • 3
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值