sparksql使用

本篇开始介绍Spark SQL的入门示例

Maven中引入

<dependency>
  <groupId>org.apache.spark</groupId>
  <artifactId>spark-sql_2.11</artifactId>
  <version>2.3.1</version>
</dependency>

在项目根目录下新建配置文件people.json

{"name":"Andy", "age":30, "sex":"女"}
{"name":"Justin", "age":19, "sex":"男"}
{"name":"Michael", "age":20, "sex":"男"}

代码示例

package com.yzy.spark;

import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.function.VoidFunction;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

public class demo4 {
    private static String appName = "spark.sql.demo";
    private static String master = "local[*]";

    public static void main(String[] args) {
        //初始化SparkSession
        SparkSession spark = SparkSession
                .builder()
                .appName(appName)
                .master(master)
                .getOrCreate();
        //读取元数据文件
        Dataset<Row> df = spark.read().json("people.json");
        //生成rdd
        JavaRDD<Row> rdd = df.toJavaRDD();
        //遍历
        rdd.foreach(new VoidFunction<Row>() {
            public void call(Row row) throws Exception {
                System.out.println(row.toString());
            }
        });

        spark.stop();
    }
}

输出结果

[30,Andy,女]
[19,Justin,男]
[20,Michael,男]

以上示例只是把元数据简单的打印出来,Spark SQL的功能远远不止如此,他甚至可以像写原生sql语句一样对数据进行过滤,下面列举一些Spark SQL的其他用法。也可以参考官方Demo,下载到本地,查看examples文件夹。

注意:示例中col()函数需导入

import static org.apache.spark.sql.functions.col;

自定义选择某些字段

df = df.select("name","age");
----------------------------------
输出结果:
[Andy,30]
[Justin,19]
[Michael,20]

对年龄字段进行加1计算

df = df.select(col("name"), col("age").plus(1));
----------------------------------
输出结果:
[Andy,31]
[Justin,20]
[Michael,21]

筛选年龄大于19岁的记录

df = df.filter(col("age").gt(19));
----------------------------------
输出结果:
[30,Andy,女]
[20,Michael,男]

按照年龄计数

df = df.groupBy("age").count();
----------------------------------
输出结果:
[30,1]
[19,1]
[20,1]

此外,我还可以使用原生sql来处理以上操作。首先我们要建立people视图

df.createOrReplaceTempView("people");

然后查询元数据就可以这样了

Dataset<Row> sqlDF = spark.sql("SELECT * FROM people");
JavaRDD<Row> rdd = sqlDF.toJavaRDD();
//......

注意:df.createOrReplaceTempView("people");方式创建的是临时视图,属于会话级别的。如果你希望在所有会话之间共享临时视图并保持活动状态,直到Spark应用程序终止,则可以创建全局临时视图。全局临时视图与系统保存的数据库绑定global_temp,我们必须使用限定名称来引用它,例如SELECT * FROM global_temp.view1

全局视图示例

df.createGlobalTempView("people");
Dataset<Row> sqlDF = spark.sql("SELECT * FROM global_temp.people");
JavaRDD<Row> rdd = sqlDF.toJavaRDD();
//......

JavaRDD 转 Dataset<Row>

//people.txt
Michael, 29
Andy, 30
Justin, 19
package com.yzy.spark;

import org.apache.spark.api.java.JavaRDD;
import org.apache.spark.api.java.function.Function;
import org.apache.spark.sql.Dataset;
import org.apache.spark.sql.Row;
import org.apache.spark.sql.SparkSession;

import java.io.Serializable;

public class demo6 {
    private static String appName = "spark.sql.demo";
    private static String master = "local[*]";

    public static void main(String[] args) {
        SparkSession spark = SparkSession
                .builder()
                .appName(appName)
                .master(master)
                .getOrCreate();

        JavaRDD<Person> peopleRDD = spark.read()
                .textFile("people.txt")
                .javaRDD()
                .map(new Function<String, Person>() {
                    public Person call(String s) throws Exception {
                        String[] parts = s.split(",");
                        Person person = new Person();
                        person.setName(parts[0]);
                        person.setAge(Integer.parseInt(parts[1].trim()));
                        return person;
                    }
                });

        Dataset<Row> peopleDF = spark.createDataFrame(peopleRDD, Person.class);
        peopleDF.show();
    }

    public static class Person implements Serializable {
        private String name;
        private int age;

        public String getName() {
            return name;
        }

        public void setName(String name) {
            this.name = name;
        }

        public int getAge() {
            return age;
        }

        public void setAge(int age) {
            this.age = age;
        }
    }
}

控制台输出

+---+-------+
|age|   name|
+---+-------+
| 29|Michael|
| 30|   Andy|
| 19| Justin|
+---+-------+

public static void main(String[] args) {

        SparkSession spark = SparkSession.builder().master("local[2]").appName("DataSetEncoderExample").getOrCreate();

        List<String> data = Arrays.asList("chen", "li", "huang");
        //创建DataSet的时候指明数据是String类型

        Dataset<String> ds = spark.createDataset(data, Encoders.STRING());

        /***操作一:**/

        //map操作:把string类型的变换成string类型
        //此时MapFunction<String, String> 这两个地方都应该是String
        Dataset<String> dsString2String = ds.map((MapFunction<String, String>) v -> "Hi," + v, Encoders.STRING());
        dsString2String.show();


        /***操作二:**/

        //map操作:把string类型的变换成int类型
        //注意此时MapFunction<String, Integer> 这两个地方的类型变化
        //第一个类型String为原来的DataSet的类型,第二个类型为输出的类型
        Dataset<Integer> dsString2Int = ds.map(new MapFunction<String, Integer>(){
            @Override
            public Integer call(String value) throws Exception {
                return value.length();
            }
        }, Encoders.INT());
        dsString2Int.show();

        /***操作三:**/
        //map操作:把string类型的变换成自定义的对象类型
        //注意此时MapFunction<String, People> 这两个地方的类型变化
        //第一个类型String为原来的DataSet的类型,第二个类型People为输出的类型
        Encoder<People> peopleEncoder = Encoders.kryo(People.class);
        Dataset<People> dsString2Object = ds.map(new MapFunction<String, People>(){
            @Override
            public People call(String value) throws Exception {
                return new People(value, value.length());
            }
        }, peopleEncoder);
        dsString2Object.show();
        dsString2Object.map((MapFunction<People, String>) item -> item.getName(), Encoders.STRING()).show();

        /***操作四:**/
        //map操作:把string类型的变换成Row对象类型
        //注意此时MapFunction<String, Row> 这两个地方的类型变化
        //第一个类型String为原来的DataSet的类型,第二个类型Row为输出的类型
//        Encoder<Row> rowEncoder = Encoders.kryo(Row.class);
        Encoder<Row> rowEncoder = Encoders.javaSerialization(Row.class);
        Dataset<Row> dsString2Row = ds.map(
                (MapFunction<String, Row>) value -> RowFactory.create(value, value.length())
            , rowEncoder);
        dsString2Row.show();
        dsString2Row.map((MapFunction<Row, String>) item -> item.getString(0), Encoders.STRING()).show();


        spark.stop();
    }



作者:憨人Zoe
链接:https://www.jianshu.com/p/2baea326ac1a         https://www.jianshu.com/p/d3c35e18af44
来源:简书
简书著作权归作者所有,任何形式的转载都请联系作者获得授权并注明出处。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值