win10安装hadoop并使用hdfs上传文件

本文介绍了在Windows上安装和启动Hadoop DFS的详细步骤。先从指定地址下载Hadoop和winutils包并解压到同一文件夹,复制文件,配置环境变量,创建相关文件夹,编辑配置文件,格式化namenode,启动dfs,最后可上传文件并通过网页查看。

摘要生成于 C知道 ,由 DeepSeek-R1 满血版支持, 前往体验 >

首先下载hadoop,具体地址为:http://archive.apache.org/dist/hadoop/core/,我下载的是hadoop-2.8.3.tar.gz

由于hadoop天生为linux开发的,所以官方包并不支持完美支持在windows上运行,还需下载 winutils来让hadoop正常运行。具体地址为:https://gitee.com/hailei_yan/winutils

将两个包都下载后解压到同一文件夹如下图所示:

再将 winutils\hadoop-2.8.3\bin里的文件 复制到 hadoop-2.8.3\bin目录下

再配置 hadoop环境变量以及JDK环境变量并将它们的bin目录添加到path里

接着在hadoop-2.8.3目录下创建 data/datanode、data/namenode、tmp文件夹

编辑etc\hadoop\core-site.xml文件,设置临时文件夹目录以及dfs的uri,具体如下:

编辑etc\hadoop\hadoop-env.cmd文件,设置jdk的目录:

编辑etc\hadoop\hdfs-site.xml文件,设置副本数以及元数据和数据的存放目录,具体如下:

用管理员身份启动cmd:hdfs namenode -format

运行完后启动dfs,到hadhood的sbin目录下运行命令:start-dfs

运行命令行后会弹出两个窗口,namenode和datanode:

不报错说明hadoop的dfs启动成功,可以上传下载文件了。可以先在hadoop的文件系统里先创建file文件夹,再上传图片,具体如下:

hadoop fs -mkdir /file         

hadoop dfs -put /E:/test/01.jpg /file

接着访问:http://127.0.0.1:50070/explorer.html#/file,即可看到页面上传的文件了

### 安装配置 HDFS 分布式文件系统于 Windows 10 #### 准备环境 为了在Windows 10上成功安装和配置HDFS,需先准备Java运行环境以及确保SSH服务可用。由于原生支持有限,通常建议通过虚拟机或Docker容器来搭建Hadoop集群环境。 #### 配置 Java 环境 HDFS依赖于Java环境,在开始之前确认已安装JDK,设置好`JAVA_HOME`环境变量[^3]。 #### 使用 WSL 或 Docker 方案 鉴于直接在Windows环境下部署较为复杂,推荐采用WSL(Windows Subsystem for Linux)或者Docker作为替代方案: - **WSL方式**:启用Windows子系统Linux功能后,安装Ubuntu或其他发行版,随后按照常规Linux流程进行Hadoop及其组件的编译与安装。 - **Docker方式**:利用官方提供的Hadoop镜像快速启动单节点或多节点集群实例,简化了网络配置及版本兼容性问题处理过程。 #### 下载解压 Apache Hadoop 无论采取哪种方法,均需要获取最新稳定版Apache Hadoop压缩包。将其放置到目标位置执行解压缩操作[^5]: ```bash tar -xzvf hadoop-x.x.x.tar.gz -C /usr/local/ ``` #### 修改核心配置文件 编辑位于`etc/hadoop/core-site.xml`, `hdfs-site.xml`等处的关键属性值以适应本地测试需求。特别是要定义NameNode地址、临时目录路径以及其他必要的参数调整[^4]: ```xml <!-- core-site.xml --> <configuration> <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> </configuration> <!-- hdfs-site.xml --> <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> </configuration> ``` #### 初始化 NameNode 启动服务 首次使用前应格式化NameNode存储空间,之后即可调用脚本开启相应守护进程: ```bash bin/hdfs namenode -format sbin/start-dfs.sh ``` #### 测试连接情况 借助内置工具验证是否能够正常访问新建立好的HDFS实例,比如尝试创建远程目录结构或是上传下载样本文档[^1][^2]: ```python from subprocess import call call(['hdfs', 'dfs', '-mkdir', '/user/gutenberg']) call(['hdfs', 'dfs', '-put', './sample.txt', '/user/gutenberg/']) ```
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

龙行天下_LXTX

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值