Spark安装及IDEA第一个Spark程序

Spark安装

Linux下安装

解压

tar -zxvf spark-3.1.2-bin-hadoop3.2.tgz -C /opt/software/

改名

mv spark-3.1.2-bin-hadoop3.2/ spark312

修改conf下配置文件

#释放配置文件
cp spark-env.sh.template spark-env.sh

#配置信息
export SPARK_MASTER_HOST=wantest03
export SPARK_MASTER_PORT=7077

请添加图片描述

配置系统环境变量

export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_HOME=/opt/software/spark312
export PATH=$SPARK_HOME/bin:$SPARK_HOME/sbin:$PATH

启动测试

#激活系统环境
source /etc/profile

#测试客户端启动
spark-shell

请添加图片描述

#测试集群启动
start-master.sh
start-slave.sh spark://wantest03:7077

请添加图片描述
请添加图片描述

Windows下安装

系统变量配置

请添加图片描述
请添加图片描述
请添加图片描述

Path变量配置

请添加图片描述请添加图片描述

创建IDEA程序

新建一个maven工程,选择scala-simple

请添加图片描述

删除test文件夹

修改scala版本,与本地一致

请添加图片描述

添加依赖

<dependencies>
    <dependency>
        <groupId>org.scala-lang</groupId>
        <artifactId>scala-library</artifactId>
        <version>${scala.version}</version>
    </dependency>
    <dependency>
        <groupId>junit</groupId>
        <artifactId>junit</artifactId>
        <version>4.4</version>
        <scope>test</scope>
    </dependency>
    <dependency>
        <groupId>org.specs</groupId>
        <artifactId>specs</artifactId>
        <version>1.2.5</version>
        <scope>test</scope>
    </dependency>
    <dependency>
        <groupId>org.apache.spark</groupId>
        <artifactId>spark-core_2.12</artifactId>
        <version>3.1.2</version>
    </dependency>
    <dependency>
        <groupId>commons-collections</groupId>
        <artifactId>commons-collections</artifactId>
        <version>3.2.2</version>
    </dependency>
</dependencies>

测试
请添加图片描述

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值