hadoop实实的体验 hdfs读写

有人称hdfs存储过程,我不写习惯,容易联想到oracle存储过程,


hdfs以块(block)为单位,每块64MB

 

检查block:

hadoop   fsck  /  -files -blocks

 

命令行接口:

 

hadoop  fs  -copyFromLocal  input/docs/quangle.txt quangle.txt


1.1.1 注意hadoop权限

创建目录:

hadoo fs    -mkdir  dzg_hadoop_data   

授权:

hadoop   fs  -chmod   777   /dzg_hadoop_data

 

读文件

import java.io.InputStream;
import java.net.URI;
import java.net.URL;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

public class FileSystemCat {
	
	static {
		URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
	}
	
	public static void main(String[] args) throws Exception {
		String uri = "hdfs://192.168.121.133:9000/hadoop/data/input";
		Configuration conf = new Configuration();
		FileSystem fs = FileSystem.get(URI.create(uri), conf);
		InputStream in = null;
		try {
			in = fs.open(new Path(uri));
			IOUtils.copyBytes(in, System.out, 4096, false);
		} finally {
			IOUtils.closeStream(in);
		}
	}
}

***请注意路径和文件是否存在 ,input为无后缀文件


1.1.1 写文件

 

import java.io.InputStream;
import java.net.URI;
import java.net.URL;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

public class FileSystemCreate {
	
	static {
		URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
	}
	static String uri = "hdfs://192.168.121.133:9000/hadoop/data/";
	static Configuration conf = new Configuration();
	
	static FileSystem fs = null;
	
	public static void main(String[] args) throws Exception {
		
		fs = FileSystem.get(URI.create(uri), conf);
		InputStream in = null;
		FSDataOutputStream  out = null;
		try {
			out = fs.create(new Path(uri+"data_create_test"));
			out.writeBytes("Hello Hadoop create file ... Hello Hadoop create file ...  Hello Hadoop create file ... ");
			out.close();
		} finally {
			IOUtils.closeStream(in);
		}
	}
}




到现在还没体会到hadoop对大数据的贡献,待续...........................







***************************************************************************

***********如果有问题可进群讨论: 大数据QQ交流:208881891**********

***************************************************************************


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值