sparksql和hive yyyy-mm-dd和yyyymmdd之间的转化问题

博客讨论了在Spark-SQL和Hive中使用`from_unixtime`和`unix_timestamp`进行日期转换时遇到的问题。当尝试将`current_date()`函数与日期格式'yyyy-mm-dd'结合使用时,出现异常。作者发现使用'YYYY-MM-DD'作为日期格式可以解决此问题,但对此现象的原因感到困惑。文章提供了正确的转换示例,并邀请读者分享他们的理解和解释。
摘要由CSDN通过智能技术生成

发现个问题,我不李姐

1.yyyy-mm-dd ---转化--->  yyyymmdd

select from_unixtime(unix_timestamp('2021-12-15','yyyy-mm-dd'),'yyyymmdd')

spark-sql:

 hive:

2.yyyymmdd ---转化--->  yyyy-mm-dd

select from_unixtime(unix_timestamp('20211215','yyyymmdd'),'yyyy-mm-dd')

spark-sql:

 hive:

 
3.问题
前面两个转化都很正常,这个百度一搜有很多,

但是当我将固定日期改为current_date()函数时会有问题(其他函数目前不知道)

select  from_unixtime(unix_timestamp(current_date,'yyyy-mm-dd'),'yyyymmdd')

spark-sql:

hive: 

 尝试多次,都是这个结果,这里的mm应该不是指分钟,联想到java是区分MM为月份的,尝试了下,成功了.

spark-sql:

hive:

 

虽然结果正确了 但是这个我还是不是很理解...

  • 3
    点赞
  • 7
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值