1.常用的方式通过sparksession读取外部文件或者数据生成dataset(这里就不讲了)
注: 生成Row对象的方法提一下:RowFactory.create(x,y,z),取Row中的数据使用row.getAs("列名")来获取对应的列值或者row.getInt(0),row.getString(1)(但这个要注意顺序)
2.通过调用createDataFrame生成Dataset
通过反射的方式将非json格式的RDD转换成DataFrame(不建议使用)
自定义类要可序列化
自定义类的访问级别是Public
RDD转成DataFrame后会根据映射将字段按Assci码排序
将DataFrame转换成RDD时获取字段两种方式,一种是df.getInt(0)下标获取(不推荐使用),另一种是df.getAs(“列名”)获取(推荐使用)
关于序列化问题:
1.反序列化时serializable 版本号不一致时会导致不能反序列化。
2.子类中实现了serializable接口,父类中没有实现,父类中的变量不能被序列化,序列化后父类中的变量会得到null。
注意:父类实现serializable接口,子类没有实现serializable接口时,子类可以正常序列化
3.被关键字transient修饰的变量不能被序列化。
4.静态变量不能被序列化,属于类,不属于方法和对象,所以不能被序列化。
另外:一个文件多次writeObject时,如果有相同的对象已经写入文件,那么下次再写入时,只保存第二次写入的引用,读取时,都是第一次保存的对象。
1 /**方法1
2 * 注意:3 * 1.自定义类必须是可序列化的4 * 2.自定义类访问级别必须是Public5 * 3.RDD转成DataFrame会把自定义类中字段的名称按assci码排序6 */
7 SparkConf conf = newSparkConf();8 conf.setMaster("local").setAppName("RDD");9 JavaSparkContext sc = newJavaSparkContext(conf);10 SQLContext sqlContext = newSQLContext(sc);11 JavaRDD lineRDD = sc.textFile("sparksql/person.txt");12 JavaRDD personRDD = lineRDD.map(new Function() {13
14 /**
15 *16 */
17 private static final long serialVersionUID = 1L;18
19 @Override20 public Person call(String s) throwsException {21 Person p = newPerson();22 p.setId(s.split(",")[0]);23 p.setName(s.split(",")[1]);24 returnp;25 }26 });27 /**
28 * 传入进去Person.class的时候,sqlContext是通过反射的方式创建DataFrame29 * 在底层通过反射的方式获得Person的所有field,结合RDD本身,就生成了DataFrame30 */
31 DataFrame df = sqlContext.createDataFrame(personRDD, Person.class);32
33 class Person implementsSerializable {34 private static final long serialVersionUID = -6907013906164009798L;35 privateString Id;36 privateString name;37
38
39
40 public voidsetId(String appId) {41 this.appId =appId;42 }43
44 publicString getId() {45 returnappId;46 }47
48 publicString getname() {49 returndetail;50 }51
52 public voidsetname(String detail) {53 this.detail =detail;54 }55 }
1 //方法2:
2 JavaRDD lineRDD = sc.textFile("./sparksql/person.txt");3 /**
4 * 转换成Row类型的RDD5 */
6 JavaRDD rowRDD = lineRDD.map(new Function() {7
8 /**
9 *10 */
11 private static final long serialVersionUID = 1L;12
13 @Override14 public Row call(String s) throwsException {15 return RowFactory.create(//这里字段顺序一定要和下边 StructField对应起来
16 String.valueOf(s.split(",")[0]),17 String.valueOf(s.split(",")[1]),18 );19 }20 });21 /**
22 * 动态构建DataFrame中的元数据,一般来说这里的字段可以来源自字符串,也可以来源于外部数据库23 */
24 List asList =Arrays.asList(//这里字段顺序一定要和上边对应起来
25 DataTypes.createStructField("id", DataTypes.StringType, true),26 DataTypes.createStructField("name", DataTypes.StringType, true)27 );28 StructType schema =DataTypes.createStructType(asList);29 /*
30 StructType schema = new StructType(new StructField[]{31 new StructField("id", DataTypes.StringType, false, Metadata.empty()),32 new StructField("name", DataTypes.StringType, false, Metadata.empty()),33 });34 */
35 //DataFrame df = sqlContext.createDataFrame(List ,schema)这个方法也可以
36 DataFrame df = sqlContext.createDataFrame(rowRDD, schema);
1 //方法3
2 public static class Person implementsSerializable {3 privateString name;4 private intage;5
6 publicString getName() {7 returnname;8 }9
10 public voidsetName(String name) {11 this.name =name;12 }13
14 public intgetAge() {15 returnage;16 }17
18 public void setAge(intage) {19 this.age =age;20 }21 }22
23 //Create an instance of a Bean class
24 Person person = newPerson();25 person.setName("Andy");26 person.setAge(32);27
28 //Encoders are created for Java beans
29 Encoder personEncoder = Encoders.bean(Person.class);30 Dataset javaBeanDS =spark.createDataset(31 Collections.singletonList(person),32 personEncoder33 );34 javaBeanDS.show();35 //+---+----+36 //|age|name|37 //+---+----+38 //| 32|Andy|39 //+---+----+40
41 //Encoders for most common types are provided in class Encoders
42 Encoder integerEncoder =Encoders.INT();43 Dataset primitiveDS = spark.createDataset(Arrays.asList(1, 2, 3), integerEncoder);44 Dataset transformedDS =primitiveDS.map(45 (MapFunction) value -> value + 1,46 integerEncoder);47 transformedDS.collect(); //Returns [2, 3, 4]48
49 //DataFrames can be converted to a Dataset by providing a class. Mapping based on name
50 String path = "examples/src/main/resources/people.json";51 Dataset peopleDS =spark.read().json(path).as(personEncoder);52 peopleDS.show();53 //+----+-------+54 //| age| name|55 //+----+-------+56 //|null|Michael|57 //| 30| Andy|58 //| 19| Justin|59 //+----+-------+