pyspark笔记 Timestamp 类型的比较

最近写pyspark遇到的一个小问题。

假设我们有一个pyspark DataFrame叫做dart

首先将dart里面'timestamp'这一列转化成Timestamp类型


dart=dart.withColumn('timestamp',col('timestamp').cast(TimestampType()))

查看timestamp的前5个元素

dart.select('timestamp').show(5,truncate=False)
'''
+-----------------------+
|timestamp              |
+-----------------------+
|2023-03-31 17:01:41.633|
|2023-03-31 18:03:44.432|
|2023-03-31 17:45:54.505|
|2023-03-31 17:21:30.438|
|2023-03-31 17:07:57.658|
+-----------------------+
only showing top 5 rows
'''

 

我们现在希望找到2023年4/1日及之后的所有行,于是我们有如下几种实现方式

d1 = dart.filter(dart['timestamp'] >= '2023-04-01 00:00:00')
d2 = dart.filter(dart['timestamp'] >= '2023-04-01 0:0:0')
d3 = dart.filter(dart['timestamp'] >= '2023-04-01 00:00:00.000')

from datetime import datetime
d4 = dart.filter(dart['timestamp'] >= datetime(2023,4,1,0,0,0))


d1.count()
#9720617
d2.count()
#5342819
d3.count()
#9720617
d4.count()
#9720617

为什么d2不一样呢?因为所虽然此时timestamp列已经是Timestamp类型了,但由于d1,d2,d3比较的是一个字符串,所以filter比较的时候,又把对应的timestamp转化回string了

s='2023-04-01 09:30:31.154'
c1='2023-04-01 0:0:0'
c2='2023-04-01 00:00:00'
s>c1,s>c2
#(False, True)

比如这个例子,s虽然也是4/1及之后的时间,但是他比c1小,也就是说不会被d2捕获

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

UQI-LIUWJ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值