原因:
- 开发大数据应用程序 (Spark程序、Flink程序 )
Hadoop已经是我们大数据领域的事实标准了。Spark生态并不是要取代Hadoop生态,而是为了更好的拓展大数据生态,两者结合。而Spark由我们Scala开发的,我们学习Scala为了更好的去学习Spark。
-
表达能力强,一行代码抵得上Java多行,开发速度快。 优雅,代码简介逻辑更加清晰。
-
兼容Java,可以访问庞大的Java类库,例如:操作mysql、redis、freemarker、activemq等等
案例对比:
假设定义三个实体类(用户、订单、商品)
java代码实现:
用户实体类:
/**
* 用户实体类
*/
public class User {
private String name;
private List<Order> orders;
public String getName() {
return name;
}
public void setName(String name) {
this.name = name;
}
public List<Order> getOrders() {
return orders;
}
public void setOrders(List<Order> orders) {
this.orders = orders;
}
}
订单实体