python 解决pyspark连接mongo数据库问题Failed to find data source: com.mongodb.spark.sql. Please find packages

pyspark存储mongo

Failed to find data source: com.mongodb.spark.sql. Please find packages:原因是说spark本身不带有连接mongo的jar包,需要下载配置一下

先上一个简单的示例代码:

spark = SparkSession.builder \
    .master("local[3]") \
    .config('spark.jars.packages', 'org.mongodb.spark:mongo-spark-connector_2.12:3.0.0') \
    .config("spark.mongodb.output.uri", "mongodb://user:password@10.0.0.171:27017/db.test") \
    .appName('test_pulsar') \
    .getOrCreate()

trip_path='path/ref_obj.csv'
df=spark.read.csv(trip_path,header=True, inferSchema=True).limit(20)
df.show()
df.write.format("mongo").mode("append").save()
上面是一个spark写入的简单操作,
配置.config('spark.jars.packages', 'org.mongodb.spark:mongo-spark-connector_2.12:3.0.0')写上以后会自动下载,我的spark版本是3.3.1
如果是spark2.0 可以用org.mongodb.spark:mongo-spark-connector_2.11:2.3.2
如果是spark3.0 可以用org.mongodb.spark:mongo-spark-connector_2.12:3.0.0

然后配置

.config("spark.mongodb.output.uri", "mongodb://user:password@10.0.0.171:27017/db.test")是默认的写出数据库表

当然如果你要读入的话同理再加一个.config("spark.mongodb.input.uri"

  • 9
    点赞
  • 11
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值