python foreach用法_使用foreach rdd和foreach在pysp中迭代rdd

Spark 1.6.1的问题,pyspark

我有流数据{"event":4,"Userid":12345,"time":123456789,"device_model":"iPhone OS", "some_other_property": "value", "row_key": 555}

我有一个名为writeToHBase(rdd)的函数,它向HBase写入数据,要求rdd具有以下结构中的元组:(rowkey, [rowkey, column-family, key, value])

从输入格式中可以看到,我必须获取原始数据集并遍历所有键,使用send函数调用发送每个键/值对。

似乎建议在数据集外部执行操作时使用foreachRDD。在我的例子中,我想通过网络向HBase写入数据,因此我对流数据使用foreachRDD并调用处理发送数据的函数:stream.foreachRDD(lambda k: process(k))

我现在对spark函数的理解非常有限,所以我无法找到在原始数据集上迭代以使用write函数的方法。如果是python iterable,我可以这样做:def process(rdd):

for key, value in my_rdd.iteritems():

writeToHBase(sc.parallelize(rowkey, [rowkey, 'column-family', key, value]))

在rdd中找到rowkey可以获得的位置rdd.map(lambda x: x['rowkey'])

如何完成process()在pyspark中的作用?我看到一些例子使用foreach,但我不能让它做我想做的事情。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值