windows上Hadoop的安装和使用

Hadoop的安装和使用(windows)

  1. 下载hadoop在windows上运行的软件winutils

   由于Hadoop不直接支持Windows系统,需要使用工具集winutils进行支持。到github.com网站(https://github.com/s911415/apache-hadoop-3.1.3-winutils)下载与Hadoop3.1.3配套的winutils。

  1. 将hadoop3.1.3解压到常用的学习路径(E:\minghuan\hadoop-3.1.3)
  2. 在解压路径(E:\minghuan\hadoop-1.3)下,先创建tmp目录,然后再tmp目录下创建两个子目录,分别是datanode和namenode。
  3. 配置hadoop3.1.3的环境变量

  将Hadoop3.1.3的解压路径(到bin目录)复制(E:/…/hadoop3.1.3/bin),右键单击计算机(此电脑)—>再点击属性—>高级系统设置—>环境变量—选择Path—>新建

  1. 将apache-hadoop-3.1.3-winutils-master.zip解压到(E:\minghuan\),然后将其目录的bin目录下所有的文件复制到hadoop3.1.3的解压路径(E:\minghuan\hadoop-3.1.3)的bin目录下。

  1. 切换到E:\minghuan\hadoop-3.1.3\etc\hadoop下修改三个文件
  1. 修改文件(再windows中找到解压路径下的etc/hadoop:

E:\minghuan\hadoop-3.1.3\etc\hadoop,使用记事本打开,然后编辑文件)

 core-site.xml

hdfs-site.xml

hadoop-env.cmd

修改hadoop-env.cmd文件,找到如下一行:

set JAVA_HOME=%JAVA_HOME%替换为 Java的安装路径(建议路径中不要包含中文和空格)

set JAVA_HOME=E:\PROGRA~1\Java\jdk1.8.0_281或者

set JAVA_HOME="E:\Program Files"\Java\jdk1.8.0_281

  1. 打开windows的cmd命令行窗口,然后执行如下命令:

格式化hadoop集群:

cd E:\minghuan\hadoop3.1.3\bin

hdfs namenode  -format

启动集群:

cd E:\minghuan\hadoop3.1.3\sbin

start-dfs.cmd

停止集群:

cd E:\minghuan\hadoop3.1.3\sbin

stop-dfs.cmd

访问集群:

 在浏览器中输入:http://localhost:9870

HDFS的shell命令

  1. 创建一个目录(在HDFS上)

   切换到解压路径下的bin目录      cd  E:\minghuan\hadoop3.1.3\bin

   使用hadoop fs ( 等价于hdfs)  -mkdir  要创建目录的路径

hadoop  fs   -mkdir  hdfs://localhost:9000/user/

hadoop  fs   -mkdir  hdfs://localhost:9000/user/xiaofang

  1. 上传一个本地文件到hdfs的xiaofang的目录

 在E盘的minghuan创建一个文件test.txt(新建一个文本文档),输入I love Hadoop

   切换到解压路径下的bin目录   cd  E:\minghuan\hadoop3.1.3\bin

 hadoop   fs   -put  本地文件的所在路径   目的路径(HDFS的路径)

 hadoop   fs   -put   E:\minghuan\test.txt  hdfs://localhost:9000/user/xiaofang

  1. 查看hdfs路径下的目录及文件

切换到解压路径下的bin目录   cd  E:\minghuan\hadoop3.1.3\bin

hadoop  fs  -ls  要查看的HDFS的路径

hadoop  fs  -ls  hdfs://localhost:9000/

  1. 查看hdfs的xiaofang目录下的文件内容

切换到解压路径下的bin目录   cd  E:\minghuan\hadoop3.1.3\bin

hadoop  fs  -cat  要查看的HDFS的文件路径

hadoop  fs  -cat  hdfs://localhost:9000/user/xiaofang/test.txt

  1. 下载hdfs的xiaofang目录下的文件test.txt

切换到解压路径下的bin目录   cd  E:\minghuan\hadoop3.1.3\bin

hadoop  fs  -get  要下载的HDFS的文件路径  下载到本地存放文件的路径

hadoop  fs  -get  hdfs://localhost:9000/user/xiaofang/test.txt  E:\minghuan\test01.txt

  1. 删除hdfs上的test.txt文件

切换到解压路径下的bin目录   cd  E:\minghuan\hadoop3.1.3\bin

hadoop  fs  -rm  要删除的HDFS的文件路径

hadoop  fs  -rm  hdfs://localhost:9000/user/xiaofang/test.txt

  1. 删除hdfs上的目录及目录下的文件

切换到解压路径下的bin目录   cd  E:\minghuan\hadoop3.1.3\bin

hadoop  fs  -rm  -r 要删除的HDFS的文件路径

hadoop  fs  -rm  -r  hdfs://localhost:9000/user/xiaofang

  

  • 7
    点赞
  • 19
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值