我有这样的数据帧:
df.head()
day time resource_record
0 27 00:00:00 AAAA
1 27 00:00:00 A
2 27 00:00:00 AAAA
3 27 00:00:01 A
4 27 00:00:02 A
并想知道某些resource_records存在多少次.
我的第一次尝试是使用value_counts()返回的系列,这看起来很棒,但之后不允许我排除一些标签,因为在dask.Series中没有实现drop().
所以我试着不打印不需要的标签:
for row in df.resource_record.value_counts().iteritems():
if row[0] in ['AAAA']:
continue
print('\t{0}\t{1}'.format(row[1], row[0]))
哪个工作正常,但如果我想进一步处理这些数据并真的希望它“清理”怎么办?所以我搜索了一些文档并找到了mask(),但这也有点笨拙:
records = df.resource_record.mask(df.resource_record.map(lambda x: x in ['AAAA'])).value_counts()
我找了一个允许我只计算单个值的方法,但count()会计算所有不是NaN的值.
然后我找到了str.contains(),但我不知道如何处理我用以下代码返回的未记录的Scalar类型:
print(df.resource_record.str.contains('A').sum())
输出:
dd.Scalar
但即使在查看了dask / dataframe / core.py中的Scalar代码之后,我也找不到获取其价值的方法.
您如何有效地计算数据框中某组值的出现次数?