hadoop入门之hdfs操作(二)

标签(空格分隔): hadoop


概述

上一节我们已经搭建了集群,那么这节我们从google的三架马车中的GFS,文件存储系统hdfs操作开始学习。

1.环境搭建

window环境搭建

1.1.HADOOP_HOME配置流程

首先我们在windows操作需要有window操作的hadoop相关操作的一些本地native库,所以需要配置HADOOP_HOME
hadoop window编译类库可于此找对应的版本之后做HADOOP_HOME环境配置。
有条件可以自己编译,但是window的编译还挺麻烦的
我的电脑->右键->属性->高级系统设置->高级->环境变量
跟JAVA_HOME的环境配置一致 需要添加HADOOP_HOME并且在path上增加 HADOOP_HOME/bin

1.2hosts配置

C:\Windows\System32\drivers\etc\hosts
添加相应的域名映射 自己做好ip与域名的映射

192.168.52.131 hadoop1
192.168.52.132 hadoop2
192.168.52.133 hadoop3
192.168.52.134 hadoop4

2.javaclient操作

maven的相关包

    <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-common</artifactId>
            <version>${hadoop-core-version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-hdfs</artifactId>
            <version>${hadoop-core-version}</version>
        </dependency>
        
    或者
       <dependency>
            <groupId>org.apache.hadoop</groupId>
            <artifactId>hadoop-client</artifactId>
            <version>${hadoop-core-version}</version>
        </dependency>
        可以看到hadoop-client中有依赖了common和hdfs包

2.1 获取FileSystem的三个静态方法

image_1d9mfamu81nqggr3gvq18vl1ij6m.png-10.7kB
image_1d9mfc9m2iuic6t10eigdd1agc13.png-13.2kB 默认是操作本地文件的

2.2 具体类

测试类

public class HdfsOperate {
private FileSystem fs;
@Before
public void beforeInit() throws Exception{
    Configuration conf = new Configuration();
    conf.set("fs.defaultFS","hdfs://hadoop1:9000");//可不配置默认操作本地的
    fs =  FileSystem.get(new URI("hdfs://hadoop1:9000"),conf,"hadoop");
}
//上传测试
@Test
public void testCopyFromLocalFile() throws IOException {
    fs.copyFromLocalFile(new Path("E:\\hadooptest\\files\\a.txt"),new Path("/"));
    fs.close();
}
//下载测试
@Test
public void testDownLoad() throws IOException {
    fs.copyToLocalFile(new Path("/a.txt"),new Path("d:/"));
    fs.close();
}
}

hdfs的操作以FileSystem为操作入口类,Configuration为配置类
image_1d9mg1dlrd39g6v1q1s12gepf71g.png-58.9kB
fs的操作主要包括拷贝,上传,下载,添加到某个文件,获取文件夹下的文件列表等操作,详细操作可自己参照具体的api。

流操作

由于配合mr的执行,所以hdfs提供了流操作,流操作以Inputsteam,OutputStream的形式,提供seek跳转到某个文件的位置,所以在mr读取数据操作的时候比较方便,流操作api后续补上主要是open,seek,create这几个方法。

3.shell操作

hadoop fs
image_1d9med348nn912lq14g75cq132p9.png-48.7kB
比如: hadoop fs -cat /a.txt 查看根路径下的a.txt文件内容
这里的操作其实跟linux相关操作差不多,只是多了几个从hdfs和本地交互的相关命令行

4界面访问

dfs.namenode.http-address 在hdfs-size.xml中可配置该参数,实行界面访问
,默认就是端口号50070 通过界面我们可以查看datanode的存活状态,还有就是文件访问,可简单查看刚刚上传的文件。

  • 1
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值