IDEA创建SparkSQL程序
1)添加依赖
<dependency>
<groupId>org.apache.spark</groupId>
<artifactId>spark-sql_2.11</artifactId>
<version>2.1.1</version>
</dependency>
2)代码实现
package com.atguigu.test
import org.apache.spark.sql.SparkSession
import org.apache.spark.{SparkConf, SparkContext}
object HelloWorld {
def main(args: Array[String]) {
//创建SparkConf()并设置App名称
val spark = SparkSession
.builder()
.master(“local[*]”)
.appName(“HelloWorld”)
//.config(“spark.some.config.option”, “some-value”)
.getOrCreate()
//导入隐式转换
import spark.implicits._
//读取本地文件,创建DataFrame
val df = spark.read.json(“examples/src/main/resources/people.json”)
//打印
df.show()
//DSL风格:查询年龄在21岁以上的
df.filter($”age” > 21).show()
//创建临时表
df.createOrReplaceTempView(“persons”)
//SQL风格:查询年龄在21岁以上的
spark.sql(“SELECT * FROM persons where age > 21”).show()
//关闭连接
spark.stop()
}
}
想要了解跟多关于大数据培训课程内容欢迎关注尚硅谷大数据培训,尚硅谷除了这些技术文章外还有免费的高质量大数据培训课程视频供广大学员下载学习。