spark将数据写入phoenix

  // log4j2 使用了全局异步打印日志的方式,还需要引入disruptor的依赖
  def main(args: Array[String]): Unit = {
    val spark = SparkSession.builder().master("local[*]").appName("phoenix-test").getOrCreate()
    // 第一种读取方法
    //    val df = spark.read.format("org.apache.phoenix.spark")
    //      .option("table", "TEST_YUAN")
    //      .option("zkUrl", "10.31.1.123,10.31.1.124,10.31.1.125:2181")
    //      .load()
    //    // 对列名的大小写不敏感,对值的大小写敏感
    //   val df2 = df.filter("mycolumn  like 'Hell%'")
    //   df2.show()
    //
    val configuration = new Configuration()
    configuration.set("hbase.zookeeper.quorum", "10.31.1.123,10.31.1.124,10.31.1.125:2181")
    // configuration.set("mapreduce.output.fileoutputformat.outputdir", "/tmp")
    // configuration.set("mapred.output.dir", "E:/hbase")
    // 第二种读取方法
    import org.apache.phoenix.spark._
    val df = spark.sqlContext.phoenixTableAsDataFrame("TEST_YUAN", Array("ROW", "FAMM", "NAME"), conf = configuration)
    df.show()
// create table "TEST_YUAN22"("ROW" VARCHAR PRIMARY KEY,"BASE"."FAMM" VARCHAR,"BASE"."NAME" VARCHAR);
    //第一种存储方法
    // java.lang.IllegalArgumentException: Can not create a Path from an empty string   可以将spark2.2.0降为2.1.1解决问题
    // 这个问题其实可以忽略,因为即使报错,也会将数据存入,最好的方法是try
    // 表一定要存在
    //    df.write
    //      .format("org.apache.phoenix.spark")
    //      .mode("overwrite")
    //      .option("table", "TEST_YUAN22")
    //      .option("zkUrl", "10.31.1.123,10.31.1.124,10.31.1.125:2181")
    //      .save()

    //第二种存储方法
    df.saveToPhoenix(Map("table" -> "TEST_YUAN22", "zkUrl" -> "10.31.1.123,10.31.1.124,10.31.1.125:2181"))
  }
  • 1
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值