URI与Path的的分析

看到别人的文档有句话一直不能理解于是手动在实践中总结答案

            文档是这样说的:

        /**
	 * 在某些情况设置URLStreamHandlerFactory的方式不一定会生效.
	 * 在这种情况下,需要用FileSystem来打开一个文件的输入流,
	 * 文件的位置是用Hadoop Path呈现在Hadoop中的,与java.io中的不一样
	 * */
文件位置的呈现怎么就不一样呢?

代码一:

public class URLCat {
	
	static{
		URL.setURLStreamHandlerFactory(new FsUrlStreamHandlerFactory());
	}
	
	/**
	 * IOUtil是个工具类,可以用来在finally从句中关闭流,
	 * 也可以用来拷贝数据到输出流中.
	 * copyByte方法的四个参数代表的含义分别是:
	 * 		拷贝的来源,去处,刀背的字节数以及在拷贝完成之后是否关闭流
	 * */
	public static void main(String[] args) {
		InputStream in = null;
		try {
			in = new URL(args[0]).openStream();
			//
			IOUtils.copyBytes(in, System.out, 4096, false);
		} catch (IOException e) {
			IOUtils.closeStream(in);
		}
		
	}
	
}

代码二:

public class FileSystemCat {
	
	
	/**
	 * 在某些情况设置URLStreamHandlerFactory的方式不一定会生效.
	 * 在这种情况下,需要用FileSystem来打开一个文件的输入流,
	 * 文件的位置是用Hadoop Path呈现在Hadoop中的,与java.io中的不一样
	 * */
	public static void main(String[] args) throws IOException {
		String uri = args[0];
		Configuration conf = new Configuration();
		FileSystem fs = FileSystem.get(URI.create(uri), conf);
		InputStream in = null;
		in = fs.open(new Path(uri));
		IOUtils.copyBytes(in, System.out, 4090, true);
		
	}
}

我开始尝试给他们都输入相同的路径:    hdfs://localhost:9000/user/admin/test.txt                 //这个是给main函数设参的路径(怎么设置不用我说了吧)

结果都能运行出来.

然后我又把路径修改了下,/user/admin/test.txt   ,这个形式在URI中报错,在Path中却依旧可以运行.这样可以理解成Path自动完成了hadoop的协议.


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,这里提供一个基于Spark的体检数据处理与分析的示例代码,供参考: 1. 数据清洗 ```scala val rawData = sc.textFile("hdfs://path/to/rawdata") val cleanedData = rawData.filter(line => line.split(",").length == 10) ``` 2. 数据预处理 ```scala import org.apache.spark.ml.feature.{VectorAssembler, StandardScaler} val assembler = new VectorAssembler() .setInputCols(Array("age", "height", "weight", "bp", "bmi")) .setOutputCol("features") val dataWithFeatures = assembler.transform(cleanedData) val scaler = new StandardScaler() .setInputCol("features") .setOutputCol("scaledFeatures") .setWithStd(true) .setWithMean(false) val scaledData = scaler.fit(dataWithFeatures).transform(dataWithFeatures) ``` 3. 数据分析 ```scala import org.apache.spark.sql.functions._ val summary = scaledData.agg( min("scaledFeatures"), max("scaledFeatures"), mean("scaledFeatures"), stddev("scaledFeatures") ) val kmeans = new KMeans() .setK(3) .setSeed(1L) .setFeaturesCol("scaledFeatures") .setPredictionCol("cluster") val model = kmeans.fit(scaledData) val clusteredData = model.transform(scaledData) val counts = clusteredData.groupBy("cluster").count() ``` 4. 结果可视化 ```scala import com.mongodb.spark._ import com.mongodb.spark.config._ val mongoConfig = ReadConfig(Map("uri" -> "mongodb://localhost:27017/", "database" -> "test", "collection" -> "clustered_data")) MongoSpark.save(clusteredData, mongoConfig) counts.show() ``` 以上代码只是简单示例,具体实现还需要根据实际情况进行调整和扩展。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值