pyspark 经常遇到的问题

problem One

这个问题不是很明白,但是当我把rdd 的数据量变小,从一个rdd容纳80 万条数据变为 一个rdd 容        纳 10 万条数据时,情况好了很多,有时候出现这个问题是在程序处理53万条数据的时候出现,估      计可能是我的电脑配置跟不上,处理不了这么多数据了……

problem Two

正确代码改为:list(jieba.cut(x[0])) , 因为jieba.cut(x)的结果是一个迭代器,我要把jieba.cut(x),也就是我们的分词结果存在一个rdd 里面,需要用list(jieba.cut(x)) 强制类型装换成list, 而传入jieba.cut(x)的参数应该是字符串,在我的程序中,x 是list型的,list[0] 取出我想要做分词的字符串。

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 2
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值