package com.dtspark.scala.basics
/**
* Scala类型系统编程实战:
* 1,Scala的类和方法、函数都可以是泛型,在Spark源码中可以到处看到类和方法的泛型,在实际实例化的时候指定具体
* 的类型,例如Spark最核心、最基础、最重要的抽象数据结构RDD里面关于RDD的类的定义是泛型的,RDD的几乎所有方法
* 的定义也都是泛型的,之所以这么做,是因为RDD会派生很多子类,通过子类适配了各种不同的数据源以及业务逻辑操作;
* 2, 关于对类型边界的限定,分为上边界和下边界:
* 上边界:表达了泛型的类型必须是某种类型或者某种类的子类,语法为<:,这里的一个新的现象是对类型进行限定;
* 下边界:表达了泛型的类型必须是某种类型或者某种类的父类,语法为>:;
* 3, View Bounds,可以进行某种神秘的转换,把你的类型可以在没有知觉的情况下转换成为目标类型,其实你可以认为 View Bounds是
* 上边界和下边界的加强补充版本,例如在SparkContext这个Spark的核心类中有T <% Writable方式的代码,这个代码所表达的是
* T必须是Writable类型的,但是T有没有直接继承自Writable接口,此时就需要通过“implicit”的方式来实现这个功能;
* 4, T: ClassTag,例如Spark源码中的RDD class RDD[T: ClassTag] 这个其实也是一种类型转换系统,只是在编译的时候类型信息不够,
* 需要借助于JVM的runtime来通过运行时信息获得完整的类型信息,这在Spark中是非常重要的,因为Spark的程序的编程和运行是区分了
* Driver和Executor的,只有在运行的时候才知道完整的类型信息。
* 5, 逆变和协变;-T和+T
* 6, Conext Bounds,T: Ordering这种语法必须能够编程Ordering[T]这种方式;
*/
class Engineer
class Expert extends Engineer
//class Meeting[-T]
class Meeting[+T]
class Animal[T](val species: T){
def getAnimal(specie: T):T = species
}
class Maximum[T: Ordering](val x: T, val y : T){
def bigger(implicit ord : Ordering[T]) = {
if(ord.compare(x, y) > 0) x else y
}
}
object HelloScalaTypeSystem {
def main(args: Array[String]): Unit = {
/*implicit def dog2Person(dog: Dog)= new Person(dog.name)
val p = new Person("Scala")
val w = new Worker("Spark")
val dog = new Dog("dahuang")
new Club(p,w).comunicate
new Club[Person](w,dog).comunicate*/
val e = new Meeting[Engineer]
participateMeeting(e)
val expert = new Meeting[Expert]
participateMeeting(expert)
println(new Maximum("Scala","Java").bigger)
}
def participateMeeting(meeting:Meeting[Engineer]){
println("Welcome")
}
class Person(val name: String){
def talk(person: Person){
println(this.name + " : " + person.name)
}
}
class Worker(name:String) extends Person(name)
class Dog(val name: String)
/*class Club[T <: Person](p1: T, p2: T){
def comunicate = p1.talk(p2)
}*/
class Club[T <% Person](p1: T, p2: T){
def comunicate = p1.talk(p2)
}
}
/**
* Scala类型系统编程实战:
* 1,Scala的类和方法、函数都可以是泛型,在Spark源码中可以到处看到类和方法的泛型,在实际实例化的时候指定具体
* 的类型,例如Spark最核心、最基础、最重要的抽象数据结构RDD里面关于RDD的类的定义是泛型的,RDD的几乎所有方法
* 的定义也都是泛型的,之所以这么做,是因为RDD会派生很多子类,通过子类适配了各种不同的数据源以及业务逻辑操作;
* 2, 关于对类型边界的限定,分为上边界和下边界:
* 上边界:表达了泛型的类型必须是某种类型或者某种类的子类,语法为<:,这里的一个新的现象是对类型进行限定;
* 下边界:表达了泛型的类型必须是某种类型或者某种类的父类,语法为>:;
* 3, View Bounds,可以进行某种神秘的转换,把你的类型可以在没有知觉的情况下转换成为目标类型,其实你可以认为 View Bounds是
* 上边界和下边界的加强补充版本,例如在SparkContext这个Spark的核心类中有T <% Writable方式的代码,这个代码所表达的是
* T必须是Writable类型的,但是T有没有直接继承自Writable接口,此时就需要通过“implicit”的方式来实现这个功能;
* 4, T: ClassTag,例如Spark源码中的RDD class RDD[T: ClassTag] 这个其实也是一种类型转换系统,只是在编译的时候类型信息不够,
* 需要借助于JVM的runtime来通过运行时信息获得完整的类型信息,这在Spark中是非常重要的,因为Spark的程序的编程和运行是区分了
* Driver和Executor的,只有在运行的时候才知道完整的类型信息。
* 5, 逆变和协变;-T和+T
* 6, Conext Bounds,T: Ordering这种语法必须能够编程Ordering[T]这种方式;
*/
class Engineer
class Expert extends Engineer
//class Meeting[-T]
class Meeting[+T]
class Animal[T](val species: T){
def getAnimal(specie: T):T = species
}
class Maximum[T: Ordering](val x: T, val y : T){
def bigger(implicit ord : Ordering[T]) = {
if(ord.compare(x, y) > 0) x else y
}
}
object HelloScalaTypeSystem {
def main(args: Array[String]): Unit = {
/*implicit def dog2Person(dog: Dog)= new Person(dog.name)
val p = new Person("Scala")
val w = new Worker("Spark")
val dog = new Dog("dahuang")
new Club(p,w).comunicate
new Club[Person](w,dog).comunicate*/
val e = new Meeting[Engineer]
participateMeeting(e)
val expert = new Meeting[Expert]
participateMeeting(expert)
println(new Maximum("Scala","Java").bigger)
}
def participateMeeting(meeting:Meeting[Engineer]){
println("Welcome")
}
class Person(val name: String){
def talk(person: Person){
println(this.name + " : " + person.name)
}
}
class Worker(name:String) extends Person(name)
class Dog(val name: String)
/*class Club[T <: Person](p1: T, p2: T){
def comunicate = p1.talk(p2)
}*/
class Club[T <% Person](p1: T, p2: T){
def comunicate = p1.talk(p2)
}
}