HDFS基本操作实践

本文介绍了在HDFS中使用shell客户端和Java API进行文件操作的实践经验。在shell端,主要运用了`hadoop fs`指令;而在Java API端,通过配置IDEA的Maven设置和修正代码错误,成功导入并运行了相关代码。文章还概述了HDFS的设计目标和架构,强调了其硬件故障容错、流式数据访问等特点,以及Namenode和Datanode的角色。
摘要由CSDN通过智能技术生成

实验内容:
在HDFS的shell客户端和Java API客户端操作HDFS的节点,对文件进行操作

实验数据记录:
在HDFS的shell端操作:
主要使用了 hadoop fs 的一些简单指令
在这里插入图片描述

在HDFS的Java API端操作:
打开安装好的IDEA,新建maven项目,点击右上角setting,配置maven:
在这里插入图片描述

在pom.xml文件中添加如下内容:

<dependency>
        <groupId>org.apache.hadoop</groupId>
        <artifactId>hadoop-common<
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值