Spark教程-Spark安装单机模式(一)

1.下载安装包
http://spark.apache.org/downloads.html
2.解压缩
tar -zxvf spark-3.0.1-bin-hadoop2.7.tgz
3.配置master
cp spark-env.sh.template spark-env.sh
vi spark-env.sh
在文件中添加
export SPARK_MASTER_HOST=192.168.5.150
4.配置slaves
slaves现在就主机一台,默认localhost
5.配置jdk环境
cd sbin
vi spark-config.sh
在文件中添加
export JAVA_HOME=/home/jdk1.8
6.启动
./start-all.sh
7.访问spark web界面
http://192.168.1.11:8080
8.尝试测试
pom.xml

		<dependency>
		    <groupId>org.apache.spark</groupId>
		    <artifactId>spark-sql_2.12</artifactId>
		    <version>3.0.1</version>
		    <scope>provided</scope>
		</dependency>

测试代码:

package com.zte.mars.model;
import org.apache.spark.sql.SparkSession;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
public class SparkTest 
{
	public static void main(String[] args) {
		System.setProperty("hadoop.home.dir", "D:\\winutils-master\\winutils-master\\hadoop-2.7.6");
		SparkSession spark = SparkSession
				  .builder()
				  .master("spark://192.168.1.11:7077")
				  .appName("Java Spark basic example")
				  .config("spark.some.config.option", "some-value")
				  .getOrCreate();
		Dataset<Row> df = spark.read().json("resources/people.json");
		df.show();
	    spark.stop();
	  }
}

注意:
1.如果报错Could not locate executable null\bin\winutils.exe in the Hadoop binaries
可在https://github.com/cdarlint/winutils下载相应的版本在代码中添加环境变量
System.setProperty(“hadoop.home.dir”, “D:\winutils-master\winutils-master\hadoop-2.7.6”);
2.如果报错Can only call getServletHandlers on a running MetricsSystem,说明pom中的spark版本和实际搭建的spark版本不匹配

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值