Spark在windows环境里跑时报错找不到org.apache.hadoop.fs.FSDataInputStream

由于最开始图省事,也是为了学习Spark的用法,所以搭了一个本地的测试Spark环境,hadoop也是本地单机版(测试没有问题)。在idea中写了一个基础的求和的spark程序,跑起来后报找不到FSDataInputStrea,上网搜了好久,基本上都是说是配置文件里没有把hadoop路径加进来的,我试过按照搜出来的改,没有用。后来调整了下POM文件的spark相关jar包的引用,在启动就没问题了。

之前是没有引用stream和hive,猜测应该是和stream这个包有关。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值