import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
import org.apache.hadoop.hbase.Cell;
import org.apache.hadoop.hbase.client.Result;
import org.apache.hadoop.hbase.io.ImmutableBytesWritable;
import org.apache.hadoop.hbase.mapreduce.TableInputFormat;
import org.apache.hadoop.hbase.mapreduce.TableOutputFormat;
import org.apache.spark.SparkConf;
import org.apache.spark.api.java.JavaPairRDD;
import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.JavaSparkContext;
import org.apache.spark.api.java.function.Function;
import scala.Serializable;
import scala.Tuple2;
import java.io.*;
/**
* 此代码用spark实现了从hbase表中导出csv格式的文件并保存到指定路径 ,其中涉及到 读取文件夹指定文件内容 并删除文件夹 而后保存文件 操作
*
*/
public class SparkExToHBase implements Serializable {
private static int flag;
public static void main(String[] args) throws IOException {
SparkConf conf = new SparkConf().setAppName("spark-i").setMa
Spark 从 hbase 中导出 表信息 到本地csv格式
最新推荐文章于 2022-12-29 17:03:31 发布