idea构建spark maven项目需要的Windows Hadoop环境,依赖

本文介绍了在Windows环境下使用IntelliJ IDEA构建Spark Maven项目时,如何配置Hadoop环境,包括下载Hadoop安装包、解压并设置环境变量,解决权限问题,以及添加winutils.exe。同时,文章还提到了Spark项目所需的依赖,如Spark本身、日志库log4j以及相关的打包和编译插件。
摘要由CSDN通过智能技术生成

1.windows配置Hadoop环境

  1. 下载Hadoop安装包,https://hadoop.apache.org/releases.html,点击binary即可,下载下来的是归档压缩文件,直接解压
  2. 环境配置,
    在这里插入图片描述
    在这里插入图片描述
  3. 常见错误,如果Java安装文件夹是默认的C盘文件夹,会因为权限不够无法访问,此时可以将D:\Hadoop\hadoop-2.10.1\etc\hadoop\hadoop-env.cmd里的Java环境变量改掉
    在这里插入图片描述
  4. bin文件夹下要添加winutils.exe,不然spark项目能编译成功但会报错

2.spark所需依赖

  1. 主要 spark依赖
<dependency>
            <groupId>org.apache.spark</groupId>
            <artifactId>spark-core_2.11</artifactId>
            <version>2.3.2</version>
            <!--<scope>provided</scope>-->
             <!--运行时把provided注掉-->
        
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值