Caused by: java.lang.ClassCastException: cannot assign instance of scala.collection.immutable.List$S

Caused by: java.lang.ClassCastException: cannot assign instance of scala.collection.immutable.List$SerializationProxy to field org.apache.spark.rdd.RDD.org$apache$spark$rdd$RDD$$dependencies_ of type scala.collection.Seq in instance of org.apache.spark.rdd.MapPartitionsRDD

eclipse java 连接远程spark运行和调试,使用hadoop和hive均出现此问题,单独打包放到集群上运行正常,把master修改成local就可以了

 

eclipse java 连接远程spark运行和调试,使用hadoop和hive均出现此问题,单独打包放到集群上运行正常,把master修改成local就可以了

 

String appName = "Java Spark Hive Example";
        String master = "local";//"spark://master.spark.redblue-ai.com:7077";
        String metastore = "thrift://metastore.hive.redblue-ai.com:9083";
        String warehouse = "hdfs://namenode.hadoop.redblue-ai.com:8020/user/hive/warehouse";
        SparkSession spark = SparkSession.builder().appName(appName).master(master)
                .config("hive.metastore.uris", metastore).config("spark.sql.warehouse.dir", warehouse)
                .enableHiveSupport().getOrCreate();

 

评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值