spark 读取本地文件

本文介绍了如何在Spark Java项目中读取本地文本文件,包括工程的搭建和代码示例,特别提醒在Linux服务器上运行时需指定本地文件路径前缀。
摘要由CSDN通过智能技术生成

1 背景

   基于spark 开发程序

   数据放在本地文件中,为text格式

   本文语言案例为java 

 2   步骤

 2.1 搭建工程

    ​​​​​​​ 基于maven搭建spark工程_this is a book的博客-CSDN博客

  2.2 代码示例

  

 SparkConf conf = new SparkConf().setAppName("demo").setMaster("local[*]");
 SparkSession sparkSession = SparkSession.builder().config(conf).getOrCreate();
 JavaSparkContext javaSparkContext = new JavaSparkContext(sparkSession.sparkContext());
 JavaRDD<String> rdd = javaSparkContext.textFile(INPUT_PATH); 
 rdd.foreach(new VoidFunction<String>() {
      @Override
      public void call(String s) throws Exception {
           System.out.println(s);
       }
  }); 

 3   注意事项

    如果是放在linux 服务器上,并且跑在spark 上,文件路径需要加这个前缀

    

file:///data/demo.text

  原因是spark一般和hdms组合使用,读取本地文件需要加前缀表明读取的是本地文件

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值