spark入门_Spark技术入门——配置部署、SparkSQL应用

#Spark# #大数据# #Hadoop# #大数据分析#

配置:配置主节点和子节点slaves

#指定哪些节点是worker

node2

node3

配置:环境变量sbin/spark-env.sh

#配置java环境变量

export JAVA_HOME=/export/servers/jdk

#指定master的地址

export SPARK_MASTER_HOST=node1

#指定master的端口

export SPARK_MASTER_PORT=7077

启动:bin/start-all.sh

WebUI:IP:8080

2 应用

2.1 执行jar应用:spark-submit:

交互式:spark-shell:scala函数式编程。

5fa4fc5736c2568016f2e2f75a344456.png

2.2 SparkSQL:spark-shell

集成到Spark中,统一的数据源(DataFrame)和标准的数据连接方式(JDBCODBC).

DSL:case class()、textfile.map。

collect展示数据,printschema查询表结构,select查询数据,show展示数据。

case class Emp(empno:Int,ename:String,job:String,mgr:Int,hiredate:String,sal:Int,comm:Int,depno:Int)

val lines=sc.textFile("/user/root/emp.csv").map(_.split(","))

line.collect

val allEmp=lines.map(x=>Emp(x(0).toInt,x(1),x(2),x(3).toInt,x(4),x(5).toInt,x(6).toInt,x(7).toInt))

c9c213cf4871c8d3f9ebaa0f3af0e6f1.png
497be3e2a0ae62a4ab61668dcf3a5ae6.png
10aa7506c8f38c5d6303937f637107fd.png

SQL查询

val df=allEmp.toDF

df.select(“*”).show

6681a9ddcfd4f8922c80d59010add7ff.png
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值