Hadoop_day04学习笔记

直接新建一个Java工程

通过java去读取hdfs 

  

抛出异常  原因是java无法识别hdfs协议   上面传的8020是网络端口

导入jar包之后 就可以识别hdfs协议了

抛出警告  log4j hadoopjarshare下的log4j.properties复制到src目录下面即可

之后就是通过hdfs API的一系列操作

1.读取文件

2.创建目录

3.创建文件

4.上传文件

5.删除文件

6.删除目录

7.列出目录下的文件

需要注意的就是在创建目录时涉及到权限问题 会抛出异常 赋予要写的目录W(写)权限就可以


代码

package com.shulian.hadoop_day04;

import java.io.ByteArrayOutputStream;
import java.io.IOException;
import java.io.InputStream;
import java.net.URL;
import java.net.URLConnection;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FSDataInputStream;
import org.apache.hadoop.fs.FSDataOutputStream;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.FsUrlStreamHandlerFactory;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.io.IOUtils;

public class Hadoop01 {
	public static void main(String[] args) throws Exception {
		listfile();
	}
	/**
	 * 通过java去读HDFS文件
	 * @throws Exception 
	 */
	public static void read() throws Exception{
		URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
		URL url = new URL("hdfs://192.168.163.101:8020/user/hadoop/core-site.xml");
		URLConnection openConnection = url.openConnection();
		InputStream inputstream = openConnection.getInputStream();
		byte[] bys = new byte[1024];
		int len = 0;
		while((len=inputstream.read(bys))!=-1){
			System.out.println(new String(bys,0,len));
		}
		inputstream.close();
	}
	/**
	 * 通过hdfs读取hdfs文件
	 * @throws IOException 
	 */
	public static void read2() throws IOException{
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");//这里是core文件里面的
		FileSystem file = FileSystem.get(conf);
		Path path = new Path("/user/hadoop/core-site.xml");
		//open方法打开文件
		FSDataInputStream open = file.open(path);
		ByteArrayOutputStream bys = new ByteArrayOutputStream();
		byte[] buf = new byte[1024];
		int len = -1 ; 
		while((len=open.read(buf)) !=-1){
			bys.write(buf,0,len);
		}
		System.out.println(new String(bys.toByteArray()));
		open.close();
		bys.close();
	}
	/**
	 * 用hdfs API读取文件  用了一个工具类  IOUtils.copyBytes(open, bys, 1024);
	 * @throws IOException
	 */
	public static void read3() throws IOException{
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");//这里是core文件里面的
		FileSystem file = FileSystem.get(conf);
		Path path = new Path("/user/hadoop/core-site.xml");
		//open方法打开文件
		FSDataInputStream open = file.open(path);
		ByteArrayOutputStream bys = new ByteArrayOutputStream();
		IOUtils.copyBytes(open, bys, 1024);
		System.out.println(new String(bys.toByteArray()));
		open.close();
		bys.close();
	}
	/**
	 * 使用用户 hdfs API创建目录
	 * @throws Exception
	 */
	public static void mkdir() throws Exception{
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");
		FileSystem file = FileSystem.get(conf);
		Path path = new Path("/user/hadoop/newdir");
		boolean mkdirs = file.mkdirs(path);
		System.out.println(mkdirs);
	}
	/**
	 * 使用hdfs API创建文件
	 * @throws IOException
	 */
	public static void createfile() throws Exception{
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");
		FileSystem file = FileSystem.get(conf);
		Path path = new Path("/user/hadoop/newdir/newfile.txt");
		FSDataOutputStream create = file.create(path);
		create.writeBytes("hello world");
		create.close();
	}
	/**
	 * 通过hdfs API上传文件
	 * @throws Exception
	 */
	public static void copyfile() throws Exception{
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");
		FileSystem file = FileSystem.get(conf);
		Path src = new Path("F:\\work\\zijilianxi_16\\src\\com\\dashuju");
		Path dst = new Path("/user/hadoop/");
		file.copyFromLocalFile(src, dst);
	}
	/**
	 * 通过hdfs API 删除文件
	 * @throws Exception
	 */
	public static void deletefile() throws Exception{
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");
		FileSystem file = FileSystem.get(conf);
		Path path = new Path("/user/hadoop/newdir/newfile.txt");
		boolean delete = file.delete(path,true);
		System.out.println(delete);
	}
	/**
	 * 通过hdfs API删除目录
	 * @throws Exception
	 */
	public static void deletedir() throws Exception{
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");
		FileSystem file = FileSystem.get(conf);
		Path path = new Path("/user/hadoop/newdir");
		boolean delete = file.delete(path,true);
		System.out.println(delete);
	}
	/**
	 * 通过hdfs 列出目录下所有文件即目录
	 * @throws Exception
	 */
	public static void listfile() throws Exception{
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");
		FileSystem file = FileSystem.get(conf);
		Path path = new Path("/user/hadoop");
		FileStatus[] listStatus = file.listStatus(path);
		for(FileStatus f :listStatus){
			System.out.println(f.getPath().getName());
		}
	}
}

通过maven就不需要导入jar包了  弄一下pom.xml依赖关系就可以

还配置了一个hadoop变量在windows上  不配置的话还抛出异常

还有一个递归列出所有的目录文件

import java.text.SimpleDateFormat;
import java.util.Date;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class Hdfs {
	public static void main(String[] args) throws Exception {
		Configuration conf = new Configuration();
		conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");
		FileSystem filesystem = FileSystem.get(conf);
		Path path = new Path("/");
		digui(filesystem,path);
	}
	public static void digui(FileSystem f, Path path) throws Exception {
		FileStatus[] listStatus = f.listStatus(path);
		for (FileStatus file : listStatus) {
			if (file.isFile()) {
				System.out.println("文件名:"+file.getPath().getName()+"\t"+"全路径"+file.getPath().getParent()+"\t"+"所属用户"+file.getOwner()+"\t"+"时间"+shijian(file.getModificationTime())+"\t"+"大小"+file.getLen());
			} else {
				System.out.println("文件夹名:"+file.getPath().getName()+"\t"+"全路径"+file.getPath().getParent()+"\t"+"所属用户"+file.getOwner()+"\t"+"时间"+shijian(file.getModificationTime()));
				Configuration conf = new Configuration();
				conf.set("fs.defaultFS", "hdfs://192.168.163.101:8020/");
				FileSystem fss = FileSystem.get(conf);
				digui(fss, file.getPath());
			}
		}
	}
	public static String shijian(long s){
		String pa = "yyyy-MM-dd HH:mm:ss";
		SimpleDateFormat j = new SimpleDateFormat(pa);
		Date dd = new Date(s);
		
		return j.format(dd);
	}
}


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
在风能领域,准确预测风速对于风电场的运行与管理至关重要。Matlab作为一个强大的数学计算和数据分析平台,被广泛应用于风速预测模型的构建。本文将深入探讨基于四种风速——随机风、基本风、阵风和渐变风的组合风速预测技术。 我们来理解这四种风速类型: 1. **随机风**:随机风是指风速呈现出随机性的变化,通常由大气湍流引起。在建模中,通常通过统计方法如高斯分布或Weibull分布来模拟这种不确定性。 2. **基本风**:基本风速是指在无特定扰动条件下的平均风速,它是长期观测结果的平均值,通常用于结构设计和风能评估。 3. **阵风**:阵风是短时间内风速显著增强的现象,对建筑物和风力发电机造成的主要威胁之一。阵风的预测涉及到风的脉动特性分析。 4. **渐变风**:渐变风是指风速随时间和空间逐渐变化的过程,常见于风向转变或地形影响下的风场变化。 在Matlab中,利用这四种风速类型进行组合预测,可以提高预测的准确性。预测模型可能包括以下几个步骤: 1. **数据收集与预处理**:收集历史风速数据,包括随机风、基本风、阵风和渐变风的数据,进行异常值检测、缺失值填充以及数据标准化。 2. **特征工程**:提取风速变化的相关特征,如平均值、标准差、极值、频率分布等,这些特征可能对预测有重要影响。 3. **模型选择**:可以选择多种预测模型,如时间序列分析(ARIMA、状态空间模型等)、机器学习算法(线性回归、决策树、支持向量机、神经网络等)或深度学习模型(LSTM、GRU等)。 4. **模型训练**:利用历史数据训练选定的模型,调整模型参数以优化性能,例如通过交叉验证来避免过拟合。 5. **模型验证与评估**:使用独立的测试集验证模型预测效果,常见的评估指标有均方误差(MSE)、平均绝对误差(MAE)和决定系数(R²)。 6. **组合预测**:结合四种风速的不同模型预测结果,可以采用加权平均、集成学习(如bagging、boosting)等方式,以提升整体预测精度。 7. **实时更新与动态调整**:实际应用中,模型需要不断接收新的风速数据并进行在线更新,以适应风场环境的变化。 通过以上步骤,可以构建一个综合考虑各种风速特性的预测系统,这对于风电场的功率输出预测、风电设备的维护计划以及电网调度都具有重要价值。然而,需要注意的是,每个风场的地理环境、气候条件和设备状况都有所不同,因此模型的建立应根据实际情况进行定制和优
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值