spark python pickle对象_如何序列化pyspark管道对象?

我正在尝试序列化PySpark Pipeline对象,以便以后可以保存和检索它.尝试使用

Python pickle库以及PySpark的PickleSerializer,dumps()调用本身就失败了.

使用本机pickle库时提供代码片段.

pipeline = Pipeline(stages=[tokenizer, hashingTF, lr])

with open ('myfile', 'wb') as f:

pickle.dump(pipeline,f,2)

with open ('myfile', 'rb') as f:

pipeline1 = pickle.load(f)

运行时出现以下错误:

py4j.protocol.Py4JError: An error occurred while calling o32.__getnewargs__. Trace:

py4j.Py4JException: Method __getnewargs__([]) does not exist

at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:335)

at py4j.reflection.ReflectionEngine.getMethod(ReflectionEngine.java:344)

at py4j.Gateway.invoke(Gateway.java:252)

at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133)

at py4j.commands.CallCommand.execute(CallCommand.java:79)

at py4j.GatewayConnection.run(GatewayConnection.java:209)

at java.lang.Thread.run(Thread.java:785)

是否可以序列化PySpark Pipeline对象?

最佳答案 从技术上讲,您可以轻松挑选Pipeline对象:

from pyspark.ml.pipeline import Pipeline

import pickle

pickle.dumps(Pipeline(stages=[]))

## b'\x80\x03cpyspark.ml.pipeline\nPipeline\nq ...

你不能腌制的是Spark变形金刚和估算器,它们只是JVM对象的瘦包装器.如果你真的需要这个,你可以将它包装在一个函数中,例如:

def make_pipeline():

return Pipeline(stages=[Tokenizer(inputCol="text", outputCol="words")])

pickle.dumps(make_pipeline)

## b'\x80\x03c__ ...

但由于它只是一段代码并且不存储任何持久性数据,因此它看起来并不特别有用.

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值