spark 中 postgresql数据库使用

毕竟是号称世界上最先进的数据库,还是要会一点的

一:

最近是在spark里面使用,需要从数据库中直接读出数据构建Dataframe,但是这里有一个坑点,我需要拿到每天的数据,但是如果不使用spark.sql()执行sql语句,而是使用其他API,就涉及一个日期条件怎么写的问题,
最后解决时是使用spark.read.jdbc(),参数除了url,表名,配置文件,就是一个predicates的条件Array[String],重点就是这个条件string怎么写,查看jdbc方法的源代码,可以看出,其实这些条件还是形成sql去查询,那么就写成postgresql的查询语句就可以了,然后在条件这,如何形成一个date型的条件值使用date(日期),比如你要查询1970-01-01这天的数据,条件应该写成
columnName = date('1970-01-01')
如果是在程序中,要对单引号转义\'

未完待续

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值