大数据平台架构第二次实验

一、实验概述:
【实验目的】

  1. 掌握HDFS分布式文件系统SHELL终端的数据载入或上传方法;
  2. 掌握HDFS分布式文件系统SHELL终端的数据查看方法;
  3. 掌握HDFS分布式文件系统的JAVA数据访问方法。

【实验要求】

  1. 保存程序,并自行存档;
  2. 最终的程序都必须经过测试,验证是正确的;
  3. 认真记录实验过程及结果,回答实验报告中的问题。

【实施环境】
(使用的材料、设备、软件) Linux操作系统环境,VirtualBox虚拟机,Hadoop等程序。

二、实验内容
第1题 HDFS文件目录创建实验

【实验内容】
(1) 使用Shell终端命令,完成HDFS文件系统的格式化;
(2) 使用Shell终端命令,在HDFS中创建/user/“用户名”/input和/user/“用户名”/output的文件目录。

【实验结果】(步骤、记录、数据、程序等)
请结合课程讲授内容,完成实验内容(1)(2),并在下方描述和记录实验过程,提供相应的界面截图证明。
1.创建HDFS的文件目录(虚拟),使用命令查看HDFS下的文件目录在这里插入图片描述
在这里插入图片描述
第2题 HDFS文件数据上传实验

【实验内容】
(1) 使用Shell终端命令,将桌面以自己学号命名的文本文件上传至/user/“用户名”/input目录;
(2) 使用Shell终端命令,读取上传文件,并显示该文本文件中的内容。

【实验结果】(步骤、记录、数据、程序等)
请结合课程讲授内容,完成实验内容(1)(2),并在下方描述和记录实验过程,提供相应的界面截图证明。

1.在桌面创建测试文件,使用HDFS的PUT命令将本地文件拷贝到HDFS的input目录下,可再次使用ls查看input目录下拷贝结果
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
2.使用-cat命令查看input目录下文件内容
在这里插入图片描述
在这里插入图片描述
3.使用-get命令将input目录下某一文件拷贝到本地磁盘中
在这里插入图片描述
在这里插入图片描述
4.使用-rm命令将input目录下某一文件删除
在这里插入图片描述

第3题 HDFS分布式文件系统的JAVA程序设计

【实验内容】
在上述2题的基础上,结合课程PPT和实验教材中讲授的相关内容,完成以下任务:
(1)使用JAVA语言,判断第2题上传文件在HDFS目录中是否存在;
(2)使用JAVA语言,读取第2题上传文件内容;
(3)使用JAVA语言,读取第2题上传文件对应的BLOCK信息;
(4)使用JAVA语言,将第2题上传文件删除。

【实验结果】(步骤、记录、数据、程序等)
请结合课程讲授内容,完成实验内容(1)(2)(3)(4),并在下方描述和记录实验过程,提供相应的代码界面截图证明。
1.在Ubuntu中安装eclipse
在这里插入图片描述
在这里插入图片描述
2.新建java工程,右键打开工程属性,在Libraries栏目下设置JAR,添加如下的JAR包。保存并关闭
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
3.从本地拷贝文件到HDFS的JAVA编程实现方式
1)在src中创建包,再创建class

在这里插入图片描述
2)配置log4j,完成日志文件的构建

配置HADOOP环境变量
export DISPLAY=:0
打开/etc/profile文件,添加如图语句

在这里插入图片描述
在这里插入图片描述

source etc/profile,使文件生效
echo $PATH,查看变量是否添加成功

在这里插入图片描述
4)拷贝成功
在这里插入图片描述
在这里插入图片描述
4.判断HDFS目录中对应文件是否存在

package experiment_2;

import java.io.BufferedInputStream;
import java.io.FileInputStream;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.fs.Path;

public class existence {
public static void main(String[] args) {
	try {
		String fileName = "hdfs://localhost:9000/user/charon/input/123.txt";
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://localhost:9000");
		conf.set("fs.hdfs.impl", "org.apache.hadoop.hdfs.DistributedFileSystem");
		FileSystem fs = FileSystem.get(conf);
		if(fs.exists(new Path(fileName))) {
			System.out.println("exists!");
		}
		else
			System.out.println("not exist!");
	}
	catch(Exception e) {
		e.printStackTrace();
	}
}
}

判断成功
在这里插入图片描述
5.列出HDFS目录中相应文件信息

package experiment_2;
import java.io.BufferedInputStream;
import java.io.FileInputStream;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.fs.Path;

public class info {
	public static void main(String[] args) {
		String uri = "hdfs://localhost:9000/user/charon/input";
		Configuration conf = new Configuration();
		try {
			FileSystem fs = FileSystem.get(new URI(uri),conf);
			Path path = new Path(uri);
			FileStatus status[] = fs.listStatus(path);
			for(int i=0;i<status.length;i++) {
				System.out.println(status[i].getPath().toString());
			}
		}
		catch(Exception e) {
			e.printStackTrace();
		}
	}
}

查询成功
在这里插入图片描述
6.删除HDFS目录中相应文件

package experiment_2;
import java.io.BufferedInputStream;
import java.io.FileInputStream;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.fs.Path;
public class dele {
public static void main(String[] args) {
	Configuration conf = new Configuration();
	conf.set("fs.defaultFS", "hdfs://localhost:9000");
	try {
		FileSystem fs = FileSystem.get(conf);
		boolean deleteOnExit = fs.deleteOnExit(new Path("/user/charon/input/testInputFile2.txt"));
		System.out.println(deleteOnExit);
	}
	catch(Exception e) {
		e.printStackTrace();
	}
}
}

删除成功
在这里插入图片描述

7.读取HDFS相应文件的BLOCK信息

package experiment_2;
import java.io.BufferedInputStream;
import java.io.FileInputStream;
import java.io.InputStream;
import java.io.OutputStream;
import java.net.URI;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.BlockLocation;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.fs.Path;

public class read {
public static void main(String[] args) {
	String uri = "hdfs://localhost:9000/user/charon/input/testInputFile2.txt";
	Configuration conf = new Configuration();
	try {
		FileSystem fs = FileSystem.get(new URI(uri),conf);
		Path path = new Path(uri);
		FileStatus fileStatus = fs.getFileLinkStatus(path);
		BlockLocation blkLocation[] = fs.getFileBlockLocations(fileStatus, 0, fileStatus.getLen());
		for(int i=0;i<blkLocation.length;i++) {
			String[] hosts = blkLocation[i].getHosts();
			System.out.println("block "+i+" location:"+hosts[0]);
		}
	}
	catch(Exception e) {
		e.printStackTrace();
	}
}
}

访问成功
在这里插入图片描述

package experiment_2;
import java.io.*;
import java.net.*;
import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.io.IOUtils;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;

public class showInfo{
	public static void main(String[] args) {
		Configuration conf = new Configuration();
		conf.set("fs.defaultFs","hdfs://localhost:9000");
		conf.set("fs.hdfs.impl","org.apache.hadoop.hdfs.DistributedFileSystem");
		try {
			URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
			InputStream in = new URL("hdfs://localhost:9000/user/charon/input/631807060531+张超.txt").openStream();
			IOUtils.copyBytes(in,System.out,4096,true);
		} catch (Exception e) {
			e.printStackTrace();
		}
	}
}


内容查看成功
在这里插入图片描述

  • 1
    点赞
  • 8
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值