Spark的安装和部署

1.概述

spark官网:http://spark.apache.org
spark是一个围绕速度,易用性和复杂分析架构的大数据处理框架;
他有如下优势:

  1. 运行速度快。spark是基于内存的,是hadoop的是100倍;
  2. 易用性。可以使用java,scala,python或者其他语言来写;
  3. mapReduce,还支持sql查询,流数据,机器学习和图计算;
  4. spark不仅仅可以处理hdfs上的数据,还可以处理其他数据。

2.安装

首先需要scala和spark的两个压缩包:
链接:https://pan.baidu.com/s/1GOA16GtKa6U9mUZR7k9uBw
提取码:8l3o
然后打开远程连接(事先搭建好的集群服务器):

找到scala压缩包所在目录,解压
tar -zxvf scala-2.10.5.tgz
在这里插入图片描述
找到spark压缩包所在目录,解压
tar -zxvf spark-2.1.1-bin-hadoop2.7.tgz
在这里插入图片描述

3.配置系统变量

编辑系统配置文件
vi /etc/profile
在这里插入图片描述
生效
source /etc/profile

4.进入spark shell

spark-shell
在这里插入图片描述

至此,就可以运行scala函数了,spark配置成功!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值