查看对应Yarn任务日志报错如图。
原因是hadoop的缺少依赖
将bson-3.8.1.jar,mongo-java-driver-3.11.0.jar,mongo-spark-connector_2.11-2.3.2.jar,mongodb-driver-core-3.8.1.jar这几个jar包放到每个节点的hadoop目录下的lib中,问题解决
spark-submit提交Python工程到Yarn报错:java.lang.ClassNotFoundException: com.mongodb.client.model.Collation
最新推荐文章于 2024-01-11 00:29:48 发布